Introduction

Ollama, la façon la plus populaire d'exécuter des modèles de langage locaux, cache des problèmes importants. Initialement, Ollama a rendu accessible le projet llama.cpp, créé par Georgi Gerganov, à un public plus large. Cependant, le projet a depuis lors systématiquement obscurci ses origines technologiques, induisant les utilisateurs en erreur sur ce qu'ils exécutent, et s'est éloigné de sa mission première.

Contexte Technique

Ollama repose entièrement sur llama.cpp pour ses capacités d'inférence. Le projet llama.cpp, créé par Georgi Gerganov, a rendu possible l'exécution de modèles LLaMA sur des ordinateurs portables. Ollama, fondé en 2021 par Jeffrey Morgan et Michael Chiang, a initialement présenté lui-même comme un « Docker pour les modèles de langage », mais a omis de mentionner llama.cpp dans son README et ses matériaux de marketing pendant plus d'un an.

La communauté a remarqué cette omission, et des problèmes ont été ouverts sur GitHub pour demander la conformité des licences et la reconnaissance de llama.cpp. Les réponses des maintainers d'Ollama ont été révélatrices, indiquant qu'ils prévoyaient de s'éloigner de llama.cpp et de passer à des moteurs plus systématiquement construits.

Analyse et Implications

Les actions d'Ollama ont des implications importantes. Le fork d'Ollama à partir de llama.cpp a introduit des bugs que llama.cpp avait déjà résolus, et les performances d'Ollama sont inférieures à celles de llama.cpp. De plus, Ollama a induit les utilisateurs en erreur en ce qui concerne les noms des modèles, présentant des modèles distillés comme des modèles complets.

La sortie d'une application de bureau fermée par Ollama en juillet 2025 a également suscité des inquiétudes, car elle a été développée dans un référentiel privé et n'a pas été publiée avec une licence. Les développeurs ont découvert des dépendances potentielles à AGPL-3.0 dans le binaire, et les maintainers d'Ollama ont été silencieux pendant des mois.

Perspective

Il est important de surveiller les actions d'Ollama et de considérer les implications de ses choix techniques et commerciaux. Les utilisateurs doivent être conscients des limites et des risques potentiels associés à l'utilisation d'Ollama, et les développeurs doivent être prudents lorsqu'ils évaluent les outils et les technologies pour leurs projets.

En fin de compte, il est essentiel de donner la priorité à la transparence, à la conformité des licences et à la reconnaissance des contributions des autres dans le développement de logiciels, en particulier dans le domaine des modèles de langage et de l'IA.