Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

1GPU pour générer 1 seconde d'audio en 1 minute. Microsoft lance le coup d'envoi de son IA interne ─ Le "cœur" de Copilot sera-t-il internalisé ?

1GPU pour générer 1 seconde d'audio en 1 minute. Microsoft lance le coup d'envoi de son IA interne ─ Le "cœur" de Copilot sera-t-il internalisé ?

2025年08月30日 08:19

Les modèles internes ouvrent la voie à une "concurrence coexistante"

Microsoft a décidé de lancer sérieusement son IA interne. L'annonce a été faite le 28 août 2025 (heure locale). The Verge a décrit cela comme "un nouveau rebondissement dans le partenariat complexe avec OpenAI", positionnant le modèle comme un "concurrent" aux côtés de GPT-5 et DeepSeek. En d'autres termes, l'entreprise a progressé vers une phase de "concurrence coexistante", collaborant avec OpenAI tout en se tenant elle-même à l'avant-garde.The Verge


MAI-Voice-1 : 1 minute de voix en moins d'une seconde avec 1 GPU

L'un des points forts est le modèle de génération vocale "MAI-Voice-1". Selon l'annonce officielle, il peut synthétiser une minute de voix en moins d'une seconde avec un seul GPU. Il est déjà intégré dans "Copilot Daily" pour la lecture des nouvelles et dans une fonction expliquant des sujets de manière "style podcast", et peut être testé dans les démos de Copilot Labs en modifiant la qualité de la voix et le style de narration du locuteur.Microsoft AI


MAI-1-preview : MoE LLM entraîné avec environ 15 000 H100

Un autre nouveau venu, "MAI-1-preview", est un modèle de langage à grande échelle de type Mixture-of-Experts, excellent pour suivre les instructions. Environ 15 000 NVIDIA H100 ont été utilisés pour l'apprentissage préalable et postérieur, et les tests publics ont commencé sur la plateforme d'évaluation communautaire "LMArena", avec des retours collectés également via un accès API limité. Un déploiement progressif pour certaines utilisations textuelles de Copilot a été annoncé dans les semaines à venir.Microsoft AIPYMNTS.com


Philosophie de conception "optimisée pour le consommateur"

Mustafa Suleyman de Microsoft AI a déclaré que la priorité des modèles internes est "l'expérience consommateur". L'idée est d'optimiser pour un "compagnon IA" en utilisant les actifs de données internes comme la publicité et la télémétrie des consommateurs. Dans le contexte de l'orientation produit de l'entreprise, cela peut être compris comme une internalisation pour améliorer le "flux quotidien" de Copilot.The Verge


Copilot vers une "orchestration des meilleurs modèles"

L'entreprise prévoit de continuer à utiliser conjointement les "meilleurs modèles" d'OpenAI et open-source, tout en commençant à utiliser MAI-1-preview pour certaines fonctions de Copilot. L'idée clé est "d'orchestrer le modèle optimal pour chaque cas d'utilisation". À ce stade, il ne s'agit pas d'un remplacement complet, mais la précision de l'utilisation différenciée est cruciale.Microsoft AI


Ambition d'infrastructure : fonctionnement du cluster GB200

L'annonce mentionne également que le cluster NVIDIA GB200 de nouvelle génération est en fonctionnement. Cela signifie que l'entreprise prépare progressivement les moyens d'améliorer ses modèles internes de manière "continue et à grande échelle". La capacité à réduire les coûts d'apprentissage et d'inférence tout en mettant à jour fréquemment sera un facteur de différenciation avec les concurrents.Microsoft AI


Essayer : Copilot Labs et LMArena

Les voies d'expérimentation sont déjà ouvertes. MAI-Voice-1 peut être testé depuis Copilot Labs. MAI-1-preview côté LLM peut être évalué sur LMArena, et l'entreprise recrute également des testeurs via une API limitée. Avant l'implémentation dans les produits, le processus consiste à identifier les "particularités" et "domaines d'expertise" avec la communauté.Microsoft AI


Réactions sur les réseaux sociaux : un "duo" d'attentes et de précautions

 


Sur X (anciennement Twitter), Suleyman a lui-même annoncé le "premier modèle interne". Les comptes techniques ont rapidement relayé l'information, et de nombreux posts ont positivement interprété cela comme "un pas vers l'indépendance stratégique de la dépendance à OpenAI".X (formerly Twitter)


D'un autre côté, PhoneArena et d'autres ont souligné l'inquiétude d'une époque où "n'importe quelle voix peut être générée de manière crédible". De nombreux discours appellent à la mise en place de moyens de vérification et à la prévention de la diffusion de deepfakes vocaux. Sur Reddit, des discussions portent sur "comment garantir la sécurité" et redéfinir les relations avec OpenAI.PhoneArenaReddit


Impact stratégique : un "nouvel équilibre" avec OpenAI

Les modèles internes actuels ne visent pas à "dissoudre" immédiatement la relation avec OpenAI. Cependant, comme le souligne The Verge, cela a rendu visible une nouvelle phase où l'entreprise est non seulement un "fournisseur de modèles de premier plan", mais aussi un "concurrent". Si elle peut internaliser le cœur de Copilot, elle pourra accélérer la différenciation à son propre rythme.The Verge


Points d'évaluation futurs

  1. Performance : Jusqu'où les mesures sur LMArena et autres se classeront-elles parmi les meilleures ?

  2. Expérience : L'introduction progressive dans Copilot améliorera-t-elle la qualité des réponses, la vitesse de réponse et la naturalité de la voix ?

  3. Sécurité : Détection et étiquetage des contrefaçons vocales, contrôle des taux et traçabilité en cas d'abus.

  4. Économie : Comment l'avantage des coûts d'inférence, comme la génération rapide avec un seul GPU, influencera-t-il l'exploitation ?

  5. Gouvernance : La conception d'utilisation conjointe avec les modèles d'OpenAI et d'autres entreprises peut-elle maintenir la transparence et la délimitation des responsabilités ?Microsoft AI


Conclusion : L'internalisation n'est pas un "objectif" mais un "moyen"

L'adoption de modèles internes n'est pas un "objectif" pour rivaliser sur le même terrain qu'OpenAI. C'est un "moyen" pour améliorer l'expérience Copilot dans le quotidien des utilisateurs à la vitesse de l'entreprise. La publication de MAI-Voice-1 et MAI-1-preview n'est que le prologue de cette histoire. La clé des prochains chapitres réside dans la performance des données sur le terrain, l'exploitation sécurisée et jusqu'où l'orchestration des "meilleurs modèles" peut être menée.Microsoft AI


Articles de référence

Microsoft annonce son premier modèle d'IA développé en interne
Source : https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai

Powered by Froala Editor

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.