Bienvenue dans ce CodeLab autour de la GenAI.
Developper une application permettant d'appeler des LLM (Large Language Model) customizer.
Pour ce CodeLab, nous allons principalement utiliser deux librairies / programmes:
- Ollama : Permet de faire des inférences sur un modèle en local
- LangChain : Framework permettant de construire des applications basé sur des LLM
Côté modèle, nous allons utiliser Mistral 7B un modèle générique de génération de texte.
Le CodeLab peut être réalisé dans différents langages:
Afin de simplifier le déploiement pour les participants, il est possible de déployer Ollama et ChromaDB sur le cloud. Tout est décrit ici
En fonction de la taille du modèle choisi, une certaine configuration mémoire est requise:
- Pour un modèle à 7 milliards de paramètres (7B) : 8Go de RAM
- Pour un modèle à 13 milliards de paramètres (13B) : 16Go de RAM
- Pour un modèle à 70 milliards de paramètres (70B) : 64Go de RAM
Afin de pouvoir faire des inférences en local, il est nécéssaire :
- D'installer Ollama
- De récupérer un modèle depuis la librairie : https://ollama.com/library
- De se baser sur le modèle
openhermes
, pour les TPs
Pour télécharger un modèle, cela peut être fait de deux façons:
- En ligne de commande:
ollama pull openhermes
- Via l'API:
curl -XPOST http://localhost:11434/api/pull -d '{"name": "openhermes"}'