Cette catégorie couvre les modèles de langage (LLM) fonctionnant en local, leur configuration, et leurs applications. Elle inclut des exemples comme LLaMA, GPT-J, Alpaca ou Mistral, qui permettent d'exploiter l'IA sans dépendre du cloud, offrant ainsi plus de contrôle sur les données et les performances.

À trier

https://getstream.io/blog/best-local-llm-tools/

https://www.jeremymorgan.com/blog/generative-ai/how-to-llm-local-mac-m1/

https://docs.mistral.ai/

Installation locale

https://alain.goudey.eu/side/2025/01/27/comment-je-fais-fonctionner-un-deepseek-r1-en-local-sur-mon-ordinateur-avec-lm-studio/

https://www.reddit.com/r/macapps/comments/1i6h705/got_deepseek_r1_running_locally_full_setup_guide/

https://apxml.com/posts/deepseek-system-requirements-mac-os-guide