J'ai récemment découvert un projet Github incroyable appelé llama.cpp, une version exécutable du modèle de langage LLaMa développé par Facebook réintégré en C++ et qui nous met à disposition les données d'entraînement de Facebook. Ce qui est génial, c'est que ce projet peut être exécuté localement sans avoir besoin d'une connexion Internet, contrairement à ChatGPT. Cependant, il ne dispose pas de filtre, ce qui signifie que des réponses inappropriées ou potentiellement dangereuses peuvent être générées. Il est important de noter que ce projet, comme l'indique l'auteur, est à but éducatif et que lui même ne peut garantir à 100 % que tout fonctionnera correctement ou que les réponses seront toujours exactes.
Néanmoins, llama.cpp peut représenter une avancée importante dans l'accessibilité à faible coût de l'intelligence artificielle conversationnelle. Elle peut notamment aider plusieurs entreprises en offrant un bot assistant plus performant et efficace aux clients et utilisateurs, en rédigeant du contenu et en optimisant les tâches en interne. Pourrait-on même imaginer une possibilité d'accessibilité pour l'intelligence artificielle, similaire à WordPress pour la création de sites web ?

https://github.com/ggerganov/llama.cpp