145 liens privés
Cette page explique comment lancer Llama sur MacBook M2. Et notamment explique comment convertir les modèles natif au bon format.
Par contre je crois qu'il n'y a pas l'option pour utiliser le framework metal qui permet d'utiliser le GPU.
Voir le lien ci-dessous pour quelques infos en plus :
https://simonwillison.net/2023/Jul/19/
Qui nous amène à cette page :
https://gist.githubusercontent.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129/raw/bf9dab711e31566353883055ee5f33092eb0c096/llama2-mac-gpu.sh
Un thread Reddit qui donne les bases pour démarrer.
Un GUI pour Llama ?
Une alternative OpenSource à CoPilot. Je n'ai aucune idée de ce que ça vaut, mais il faut une RTX Pour que ça fonctionne.
Une plateforme qui regroupe les communautés autours des différentes AI.
en // de OpenAI et de GPT, Meta est en train de développer une IA.
Cette dernière serait apparemment Open Source.
Je n'y connais rien, mais je me demandais s'il était possible de faire tourner cela sur un laptop.
Apparemment à terme cette IA sera prévue pour fonctionner sur des GSM.
Ce site en parle aussi :
https://beebom.com/how-use-llama-2-ai-model/
Bon, je n'ai testé ni l'un ni l'autre, mais ayant entendu parler de Copilot, je voulais voir s'il existait des alternatives open-sources.
La réponse semble être "oui" (après je n'ai vraiment pas regardé)