J'ai récemment découvert un projet Github incroyable appelé llama.cpp, une version exécutable du modèle de langage LLaMa développé par Facebook réintégré en C++ et qui nous met à disposition les données d'entraînement de Facebook. Ce qui est génial, c'est que ce projet peut être exécuté localement sans avoir besoin d'une connexion Internet, contrairement à ChatGPT. Cependant, il ne dispose pas de filtre, ce qui signifie que des réponses inappropriées ou potentiellement dangereuses peuvent être générées. Il est important de noter que ce projet, comme l'indique l'auteur, est à but éducatif et que lui même ne peut garantir à 100 % que tout fonctionnera correctement ou que les réponses seront toujours exactes.
Néanmoins, llama.cpp peut représenter une avancée importante dans l'accessibilité à faible coût de l'intelligence artificielle conversationnelle. Elle peut notamment aider plusieurs entreprises en offrant un bot assistant plus performant et efficace aux clients et utilisateurs, en rédigeant du contenu et en optimisant les tâches en interne. Pourrait-on même imaginer une possibilité d'accessibilité pour l'intelligence artificielle, similaire à WordPress pour la création de sites web ?
https://github.com/ggerganov/llama.cpp
๐'๐ฎ๐ถ ๐๐ฟ๐ผ๐๐é ๐ฐ๐ผ๐บ๐บ๐ฒ๐ป๐ ๐ณ๐ฎ๐ถ๐ฟ๐ฒ ๐๐ผ๐๐ฟ๐ป๐ฒ๐ฟ ๐๐ป ๐๐ต๐ฎ๐๐๐ฃ๐ง ๐๐ฎ๐ป๐ ๐ฐ๐ผ๐ป๐ป๐ฒ๐ ๐ถ๐ผ๐ป


