Zubnet AIApprendreWiki › Alibaba Cloud
Compagnies

Alibaba Cloud

Aussi appelé : Modèles Qwen, Tongyi Qianwen
La division d'infonuagique du Groupe Alibaba et créatrice de la famille de modèles Qwen. Les modèles Qwen sont entièrement à poids ouverts, multilingues et comptent parmi les modèles ouverts les plus performants disponibles.

Pourquoi c’est important

Alibaba Cloud a fait de Qwen la famille de modèles à poids ouverts la plus largement déployée en Asie et un concurrent mondial véritablement crédible face à Llama de Meta, prouvant que des modèles de classe frontière peuvent provenir de l'extérieur de la Silicon Valley. Leur combinaison de publications de modèles ouverts, d'infrastructure infonuagique massive et de l'écosystème ModelScope offre aux développeurs — en particulier ceux des marchés touchés par les contrôles à l'exportation américains — une alternative crédible et de haute qualité aux plateformes d'IA occidentales.

En profondeur

Alibaba Cloud — aussi connue sous le nom d'Aliyun — a été lancée en 2009 comme division d'infonuagique du Groupe Alibaba de Jack Ma, construite à l'origine pour gérer les pics de trafic astronomiques du Singles' Day, le plus grand événement de magasinage en ligne au monde. Ce qui a débuté comme infrastructure interne est progressivement devenu le premier fournisseur d'infonuagique publique en Chine, détenant environ un tiers du marché intérieur. Mais la véritable histoire pour le monde de l'IA commence en 2023, quand Alibaba Cloud a publié les premiers modèles Qwen (Tongyi Qianwen) et s'est engagée dans une stratégie agressive de poids ouverts qui allait remodeler le paysage mondial des modèles fondationnels accessibles.

La famille de modèles Qwen

La série Qwen a évolué à un rythme qui a pris les laboratoires occidentaux au dépourvu. Qwen 1.0 a fait ses débuts mi-2023 comme un grand modèle de langage respectable mais sans éclat particulier. Qwen 1.5, publié début 2024, a considérablement réduit l'écart avec les modèles de pointe. Puis Qwen 2 et Qwen 2.5 sont arrivés en succession rapide, le Qwen2.5-72B égalant ou dépassant Llama 3.1-70B sur la plupart des indices de référence tout en étant véritablement multilingue — pas simplement « anglais avec un peu de chinois », mais performant dans des dizaines de langues incluant l'arabe, le japonais, le coréen et les langues d'Asie du Sud-Est que la plupart des modèles occidentaux gèrent mal. L'équipe Qwen, dirigée par Jinze Bai sous l'Académie DAMO d'Alibaba, s'est également étendue au multimodal avec Qwen-VL pour les tâches de vision-langage et Qwen-Audio, ainsi que des variantes spécialisées pour le code (Qwen-Coder) et les mathématiques (Qwen-Math). D'ici 2025, Qwen était devenue la famille de modèles à poids ouverts par défaut pour l'utilisation en production dans une grande partie de l'Asie.

Les poids ouverts comme stratégie

La décision d'Alibaba Cloud de publier les modèles Qwen sous licence Apache 2.0 n'était pas de l'altruisme — c'était un mouvement calculé pour accroître sa part de marché dans l'infonuagique. La stratégie reprend celle de Llama de Meta : offrir le modèle, vendre le calcul. Chaque développeur qui affine Qwen sur la plateforme ModelScope d'Alibaba Cloud, chaque startup qui déploie Qwen via les API d'inférence d'Alibaba, chaque entreprise qui construit sur Qwen et a besoin d'hébergement géré — tous deviennent des clients potentiels de l'infonuagique. La stratégie fonctionne particulièrement bien dans les marchés où les contrôles à l'exportation américains sur les puces avancées rendent l'exécution de modèles fermés de pointe de fournisseurs américains soit impraticable, soit politiquement indésirable. Alibaba Cloud a positionné Qwen comme le choix souverain en IA pour les pays cherchant à développer des capacités d'IA nationales sans dépendance envers OpenAI ou Google.

Naviguer la pénurie de puces

Les contrôles à l'exportation américains sur les semi-conducteurs avancés vers la Chine, resserrés à plusieurs reprises depuis octobre 2022, constituent la contrainte déterminante pour tous les laboratoires d'IA chinois — et Alibaba Cloud ne fait pas exception. Incapable d'acheter des NVIDIA H100 ou leurs successeurs, Alibaba a investi massivement dans son propre accélérateur d'IA Hanguang 800 et aurait accumulé des puces A100 plus anciennes avant l'entrée en vigueur des interdictions. L'équipe Qwen est également devenue remarquablement efficace en calcul, obtenant de solides résultats avec ce qui semble être nettement moins de puissance d'entraînement que des modèles occidentaux comparables. Que ce soit une véritable efficacité algorithmique ou simplement une communication moins transparente fait l'objet de débats, mais les résultats parlent d'eux-mêmes : les modèles Qwen sont systématiquement plus performants que ce que leur catégorie laisserait supposer.

Géant de l'infonuagique aux ambitions en IA

La position d'Alibaba Cloud est unique parmi les laboratoires d'IA chinois car elle combine une infrastructure infonuagique massive avec le développement de modèles de pointe. Baidu possède Ernie mais une activité infonuagique plus faible. Tencent a l'échelle infonuagique mais des modèles moins impressionnants. Alibaba a les deux, plus la plateforme ModelScope (la réponse chinoise à Hugging Face) qui est devenue le carrefour central de l'IA libre dans l'écosystème chinois. La décision de novembre 2023 de scinder puis d'annuler l'introduction en bourse de la division infonuagique reflétait des tensions internes sur l'agressivité de l'investissement en IA par rapport à l'optimisation de la rentabilité. Début 2025, le Groupe Alibaba s'était engagé à investir plus de 50 milliards de dollars dans l'infrastructure infonuagique et d'IA au cours des trois prochaines années — un signal que la stratégie « IA d'abord » l'a emporté. Pour les développeurs et les entreprises en dehors de l'écosystème technologique américain, Alibaba Cloud et Qwen sont devenus l'alternative ouverte la plus crédible à l'axe OpenAI-Microsoft.

Concepts connexes

← Tous les termes
← Agent Alignement →
ESC