Nous avons connu en fin d’année 2022 un bouleversement avec la sortie de l’intelligence artificielle générative d’OpenAI ChatGPT. Depuis ChatGPT est devenu un véritable buzzword et a provoqué un choc dans le milieu de l’intelligence artificielle et des modèles de langage de grande taille (LLM).
Mais l’événement n’est-il pas ailleurs ?
En effet, en février 2023, Facebook (Meta), annonçait la mise à disposition du plus grand nombre un modèle baptisé « LLaMA «. Tout comme ChatGPT, ce modèle de langue est capable de générer des phrases sensées, de répondre à des questions, de traduire, de résumer des textes…
Vigogne qui est une adaptation du LLaMa Alpaca de Stanford, fait il le poids face à ChatGPT ?
LLaMa vs ChatGPT
Deux « détails » font la différence :
- LLaMA occupe moins de mémoire RAM, il est plus « petit » que GPT pour des performances comparables, voire meilleures. Il peut donc fonctionner sur des plus petits PC.
- LLaMA de Facebook est Open Source mais il faut montrer « patte blanche » en complétant un formulaire (plus de détail sur le GitHub facebookresearch / llama).
Suite à cela de nombreux modèles, dérivés du modèle LLaMA de Facebook, sont distribués de manière indépendante. Je citerais entre autre :
- Stanford Alpaca, plus compact que LLaMa avec des performances similaires. Pour ce faire, les chercheurs de Stanford se sont appuyés sur le plus petit des LLM open source de Facebook, ont demandé à GPT d’OpenAI de générer 52 000 questions/réponses et utilisé ces couples questions-réponses pour apprendre au modèle à répondre à des questions.
- gpt4all, entrainé avec un complément d’apprentissage d’environ 800 000 questions-réponses en partie traitées avec GPT-3.5, le modèle d’OpenAI. Nous en parlons plus en détail dans notre article « J’ai lancé un mini ChatGPT en local sur mon CPU avec GPT4All «.
- Vicuna, un modèle exploitant la version à 13 milliards de paramètres de LLaMA et quelque 70 000 conversations partagées gratuitement par des utilisateurs sur ShareGPT. Ce modèle, suivant cet article « Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality «, ayant des performances proches de GPT-4
- vigogne, qui est une adaptation du LLaMa Alpaca de Stanford. Il a été ré-entrainé avec une traduction en français du jeu de données utilisé par l’équipe de Stanford.
Dans cet article nous allons nous intéresser au modèle Vigogne car comme indiqué il a été “réglé finement” (fine tuned) avec des instructions en français. Le “fine tuned ” consistant à compléter un gros modèle déjà calculé avec des instructions de spécialisation particulières qui l’ajustent à la marge. On obtient alors un nouveau modèle.
Vigogne Utilisation et fonctionnalités
Vigogne implémente une version optimisée du moteur initial de LLama, llama.cpp permettant de fonctionner avec moins de ressources système et optimisé pour différents type de processeurs.
Installation du module Python Vigogne
Cloner le dépôt Git
git clone https://github.com/bofenghuang/vigogne.git
Installer le module Python
cd vigogne
pip install .
Exécution en mode ChatBot
Les modèles Vigogne-Chat ont été affinés à l’aide d’environ 213 000 exemples de dialogues. Des détails supplémentaires concernant les données sont disponibles dans vigogne/data.
Remarque : A la première exécution, différents fichiers & modèles seront téléchargés. Ne vous inquiétez pas, cela prendra un peu de temps.
vigogne/demo/demo_chat.py
Conclusion
Vigogne dérive directement de LLaMa avec l’objectif d’être au plus près de GPT-3.5, le modèle phare vendu par OpenAI, mais avec l’utilisation de moins de ressources système possibles.
C’est avec succès que j’ai fait fonctionner Vigogne sur un simple PC (minimum de 16 Go de RAM) sans une grosse carte graphique GPU et/ou une quantité de mémoire RAM importante. Cependant la présence d’une carte graphique améliore grandement les temps de réponse.
Du fait que le modèle de Stanford Alpaca a été traduit en automatique, certains aspects de la langue française sont occultés. Ainsi le résultat est subjectif et dépend des usages et du corpus qui a servi à l’entraîner.
ChatGPT-3.5 détient encore une avance assez nette en pertinence, longueur des réponses et qualité des textes générés par rapport à Vigogne.
Cependant il est à noter que les progrès sont très rapides dans ce domaine, il ne fait aucun doute que d’ici la fin de cette année, d’autres avancées notables seront réalisées.
« LLaMA de Facebook est Open Source mais il faut montrer « patte blanche » en complétant un formulaire (plus de détail sur le GitHub facebookresearch / llama). »
Si il y a des restrictions, ce n’est pas « open source ».
Merci pour votre article !