Cette catégorie couvre les modèles de langage (LLM) fonctionnant en local, leur configuration, et leurs applications. Elle inclut des exemples comme LLaMA, GPT-J, Alpaca ou Mistral, qui permettent d'exploiter l'IA sans dépendre du cloud, offrant ainsi plus de contrôle sur les données et les performances.
https://getstream.io/blog/best-local-llm-tools/
https://www.jeremymorgan.com/blog/generative-ai/how-to-llm-local-mac-m1/
https://www.reddit.com/r/macapps/comments/1i6h705/got_deepseek_r1_running_locally_full_setup_guide/
https://apxml.com/posts/deepseek-system-requirements-mac-os-guide