Skip to content

Latest commit

 

History

History
46 lines (28 loc) · 1.69 KB

README.md

File metadata and controls

46 lines (28 loc) · 1.69 KB

CodeLab GenAI Zenika

Bienvenue dans ce CodeLab autour de la GenAI.

L'objectif

Developper une application permettant d'appeler des LLM (Large Language Model) customizer.

Les technos

Pour ce CodeLab, nous allons principalement utiliser deux librairies / programmes:

  • Ollama : Permet de faire des inférences sur un modèle en local
  • LangChain : Framework permettant de construire des applications basé sur des LLM

Côté modèle, nous allons utiliser Mistral 7B un modèle générique de génération de texte.

Le CodeLab peut être réalisé dans différents langages:

Afin de simplifier le déploiement pour les participants, il est possible de déployer Ollama et ChromaDB sur le cloud. Tout est décrit ici

Pré-requis matériel

En fonction de la taille du modèle choisi, une certaine configuration mémoire est requise:

  • Pour un modèle à 7 milliards de paramètres (7B) : 8Go de RAM
  • Pour un modèle à 13 milliards de paramètres (13B) : 16Go de RAM
  • Pour un modèle à 70 milliards de paramètres (70B) : 64Go de RAM

Installation

Afin de pouvoir faire des inférences en local, il est nécéssaire :

Pour télécharger un modèle, cela peut être fait de deux façons:

  • En ligne de commande: ollama pull openhermes
  • Via l'API: curl -XPOST http://localhost:11434/api/pull -d '{"name": "openhermes"}'