La stratégie d’IA de Meta devient étrange : Open Source, Closed Source, et le problème de l’avocat
Depuis deux ans, Meta est le fervent champion de l’IA open source. Llama est devenu la base sur laquelle des milliers d’entreprises se sont appuyées. Zuckerberg a même écrit une lettre entière sur les bienfaits de l’open source pour tout le monde.
Et puis, ils ont discrètement commencé à développer un modèle closed source appelé Avocado.
Que se passe-t-il ?
L’histoire de Llama jusqu’à présent
Reconnaissons les mérites là où ils sont dus. Les modèles Llama de Meta ont changé le paysage de l’IA. Avant Llama, si vous vouliez un puissant modèle de langage, vous aviez deux options : payer OpenAI ou payer Google. Llama a offert à tout le monde une troisième option : le faire vous-même.
Llama 3.1 a porté la longueur de contexte à 128K tokens. Llama 4 a introduit des modèles multimodaux natifs — Scout et Maverick — capables de gérer texte, images et vidéo dans une seule architecture. Lors de LlamaCon en avril 2025, Meta a misé sur le message « le futur est open source ».
Et l’impact était réel. Des startups ont construit des produits sur Llama qu’elles n’auraient pas pu se permettre de développer sur des API propriétaires. Les chercheurs l’ont utilisé pour faire progresser le domaine. Des pays l’ont utilisé pour développer des capacités d’IA sans dépendre des entreprises technologiques américaines.
Alors pourquoi Meta commencerait-elle à faire preuve de prudence ?
Bienvenue Avocado
Des rapports ont fait surface indiquant que Meta développe un nouveau modèle prénommé « Avocado » au sein de ses Meta Superintelligence Labs (MSL), dirigés par le directeur de l’IA, Alexandr Wang. Le détail clé : Avocado est en cours de développement sous un « contrôle plus strict » — ce qui est du jargon corporate pour dire « pas entièrement open source ».
Le plan initial était de lancer d’ici fin 2025. Cela a été retardé. Les estimations actuelles le placent au premier ou au deuxième trimestre 2026.
Pourquoi ce changement ? Plusieurs raisons qui prennent sens quand on y pense :
La réception de Llama 4 a été tiède. Malgré des caractéristiques techniques impressionnantes, Llama 4 n’a pas suscité le même engouement que Llama 3. Le marché est saturé de modèles ouverts, et la différenciation est plus difficile.
Pression sur les revenus. Meta a dépensé des milliards dans l’infrastructure d’IA. À un moment donné, les investisseurs souhaitent voir des retours. Offrir en open source vos meilleurs modèles rend difficile la facturation pour ceux-ci.
Dynamiques concurrentielles. OpenAI, Google et Anthropic gardent tous leurs meilleurs modèles propriétaires. Offrir des modèles comparables gratuitement est généreux, mais c’est aussi une stratégie commerciale qui a des limites.
La tension de l’open source
Voici la vérité inconfortable que personne dans l’industrie de l’IA ne veut dire à voix haute : l’IA open source pure est économiquement insoutenable à la limite.
Former un modèle à la pointe coûte des centaines de millions de dollars. Si vous le publiez gratuitement, vos concurrents bénéficient de votre investissement sans en supporter le coût. Cela marche comme une stratégie quand vous essayez de bâtir un écosystème (ce que faisait Meta). Cela cesse de fonctionner une fois que l’écosystème est construit et que vous devez monétiser.
La stratégie probable de Meta : garder Llama en open source comme l’offre « communautaire », tandis qu’Avocado devient le modèle premium et propriétaire pour les clients entreprises. Pensez à cela comme Red Hat et Linux — la version open source est gratuite, la version entreprise coûte de l’argent.
Ce n’est pas nécessairement mauvais. Cela pourrait même être le seul modèle durable pour le développement de l’IA à la pointe. Mais cela signifie également que l’ère de « Meta offre sa meilleure IA gratuitement » touche probablement à sa fin.
Ce que cela signifie pour les développeurs
Si vous avez construit sur Llama, ne paniquez pas. Meta ne va pas vous lâcher. Llama continuera d’être développé et publié en open source. La communauté est trop grande et trop précieuse pour être abandonnée.
Mais voici ce à quoi vous devriez penser :
Diversifiez vos dépendances de modèle. Si l’ensemble de votre stack dépend de Llama, vous êtes exposé aux décisions stratégiques de Meta. Ayez un plan de secours avec Mistral, Qwen, ou d’autres modèles ouverts.
Surveillez les licences. La licence de Llama a toujours été « ouverte » avec des astérisques (restrictions d’utilisation pour les grandes entreprises, pas d’utilisation pour former des modèles concurrents). Les futures versions pourraient avoir plus de restrictions.
La véritable compétition se trouve dans le fine-tuning. À mesure que les modèles de base se commodifient, la valeur se déplace vers le fine-tuning spécifique au domaine et l’optimisation de déploiement. C’est là que vous devriez investir vos efforts.
Le tableau d’ensemble
La stratégie d’IA de Meta reflète une tension plus large dans l’industrie : tout le monde veut les bénéfices de l’open source (écosystème, talents, bonne volonté) sans les coûts (donner son avantage concurrentiel).
Google a open-sourcé Gemma mais garde Gemini propriétaire. Mistral a commencé entièrement ouvert mais propose de plus en plus de modèles d’entreprise propriétaires. Même Stability AI, qui a bâti sa marque sur l’open source, a rencontré des difficultés financières.
Le schéma est clair : l’open source est une excellente stratégie de croissance mais un modèle commercial difficile. Les entreprises qui parviennent à faire les deux — maintenir un écosystème ouvert dynamique tout en construisant des produits propriétaires au-dessus — l’emporteront.
Meta essaie de comprendre cela en temps réel. Le projet Avocado est leur première tentative sérieuse d’avoir un pied dans chaque camp. Si cela fonctionne, cela nous en dira beaucoup sur l’avenir de l’IA open source.
Mon pari : Meta va garder Llama suffisamment compétitif pour maintenir l’écosystème, tandis qu’Avocado vise le marché des entreprises où les entreprises sont prêtes à payer pour de meilleures performances, support, et SLA. Ce n’est pas aussi idéaliste que « open source tout », mais cela pourrait être la seule approche qui fonctionne réellement à long terme.
🕒 Published: