Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

1 GPU generiert 1 Minute Audio in 1 Sekunde. Microsoft gibt den Startschuss für interne KI ─ Wird das "Herz" von Copilot intern entwickelt?

1 GPU generiert 1 Minute Audio in 1 Sekunde. Microsoft gibt den Startschuss für interne KI ─ Wird das "Herz" von Copilot intern entwickelt?

2025年08月30日 08:20

Die "Koexistenz-Konkurrenz", die durch interne Modelle eröffnet wird

Microsoft hat den umfassenden Einsatz von intern entwickelten KI-Modellen beschlossen. Die Ankündigung erfolgte am 28. August 2025 (Ortszeit). The Verge bezeichnete dies als "neue Wendung in der komplexen Partnerschaft mit OpenAI" und positionierte es als "Konkurrenzmodell" auf Augenhöhe mit GPT-5 und DeepSeek. Das bedeutet, dass das Unternehmen, während es mit OpenAI zusammenarbeitet, auch in die Phase der "Koexistenz-Konkurrenz" eingetreten ist, in der es selbst an vorderster Front steht.The Verge


MAI-Voice-1: 1 Minute Audio in weniger als 1 Sekunde mit 1 GPU

Eines der Highlights ist das Sprachgenerierungsmodell "MAI-Voice-1". Laut offizieller Ankündigung kann es mit einer einzelnen GPU eine Minute Audio in weniger als einer Sekunde synthetisieren. Es ist bereits in Funktionen integriert, die Nachrichten vorlesen, wie "Copilot Daily", und Themen im "Podcast-Stil" erklären. In den Demos von Copilot Labs kann man die Stimme und den Erzählstil des Sprechers ändern und ausprobieren.Microsoft AI


MAI-1-preview: MoE LLM trainiert mit etwa 15.000 H100

Ein weiteres neues Modell, "MAI-1-preview", ist ein Mixture-of-Experts großes Sprachmodell, das besonders gut auf Anweisungen reagiert. Für das Vor- und Nachtraining wurden etwa 15.000 NVIDIA H100 eingesetzt. Zunächst beginnt der öffentliche Test auf der Community-Bewertungsplattform "LMArena", und Feedback wird auch über einen begrenzten API-Zugang gesammelt. Ein schrittweiser Rollout für bestimmte Textanwendungen von Copilot wurde innerhalb weniger Wochen angekündigt.Microsoft AIPYMNTS.com


Das Designkonzept der "Optimierung für den Verbraucher"

Mustafa Suleyman von Microsoft AI hat klargestellt, dass die Priorität der internen Modelle auf der "Verbrauchererfahrung" liegt. Die Idee ist, die eigenen Datenressourcen wie Werbung und Verbrauchertelemetrie zu nutzen, um sie für den "AI Companion" zu optimieren. Angesichts des produktorientierten Ansatzes des Unternehmens kann man verstehen, dass die Internalisierung dazu dient, die "alltäglichen Abläufe" von Copilot zu verbessern.The Verge


Copilot geht zur "Orchestrierung der besten Modelle" über

Das Unternehmen plant, weiterhin die "besten Modelle" von OpenAI und Open Source zu nutzen, während es beginnt, MAI-1-preview in einigen Funktionen von Copilot zu verwenden. Wichtig ist der Gedanke, "für jeden Anwendungsfall das optimale Modell zu orchestrieren". Derzeit ist es keine vollständige Ersetzung, sondern die Genauigkeit der Differenzierung entscheidet über den Erfolg.Microsoft AI


Infrastrukturambitionen: Betrieb des GB200-Clusters

In der Ankündigung wird auch erwähnt, dass der nächste NVIDIA GB200-Cluster bereits in Betrieb ist. Das bedeutet, dass das Unternehmen die Voraussetzungen schafft, um seine internen Modelle "kontinuierlich und in großem Maßstab" zu verbessern. Die Fähigkeit, die Kosten für Training und Inferenz zu senken und häufige Updates durchzuführen, wird den Unterschied zur Konkurrenz ausmachen.Microsoft AI


Ausprobieren: Copilot Labs und LMArena

Die Möglichkeit, Erfahrungen zu sammeln, ist bereits gegeben. MAI-Voice-1 kann in Copilot Labs ausprobiert werden. Das LLM MAI-1-preview kann in LMArena bewertet werden, und das Unternehmen sucht auch Tester über einen begrenzten API-Zugang. Vor der Implementierung in Produkte wird der Prozess gemeinsam mit der Community durchgeführt, um "Eigenheiten" und "Stärken" zu identifizieren.Microsoft AI


Reaktionen in sozialen Netzwerken: Ein "Duett" aus Erwartungen und Vorsicht

 


Auf X (ehemals Twitter) kündigte Suleyman selbst das "erste interne Modell" an. Technische Accounts verbreiteten die Nachricht schnell, und viele Beiträge nahmen dies positiv als "strategischen Schritt zur Unabhängigkeit von OpenAI" auf.X (formerly Twitter)


Andererseits betonte PhoneArena die Besorgnis über eine Ära, in der "jede Stimme glaubwürdig generiert werden kann". Viele fordern die Einrichtung von Mitteln zur Verifizierung und äußern Bedenken über die Verbreitung von Deepfake-Audio. Auch auf Reddit werden Bedenken über die Gewährleistung der Sicherheit und Diskussionen über die Neudefinition der Beziehung zu OpenAI geführt.PhoneArenaReddit


Strategische Auswirkungen: Ein "neues Gleichgewicht" mit OpenAI

Das interne Modell bedeutet nicht sofort eine "Auflösung" der Beziehung zwischen OpenAI und Microsoft. Wie The Verge jedoch betont, hat das Unternehmen eine neue Phase sichtbar gemacht, in der es nicht nur "Lieferant der besten Modelle", sondern auch "Konkurrent" ist. Wenn Microsoft das Herzstück von Copilot selbst in die Hand nehmen kann, kann es die Geschwindigkeit der Differenzierung nach eigenem Ermessen beschleunigen.The Verge


Zukünftige Bewertungspunkte

  1. Leistung: Wie weit kann es in LMArena und anderen Tests nach oben kommen?

  2. Erfahrung: Verbessern sich die Antwortqualität, die Antwortgeschwindigkeit und die Natürlichkeit der Sprache durch die schrittweise Einführung in Copilot spürbar?

  3. Sicherheit: Erkennung und Kennzeichnung von gefälschten Stimmen, Ratenkontrolle und Rückverfolgbarkeit bei Missbrauch.

  4. Wirtschaftlichkeit: Wie wirkt sich der Vorteil der schnellen Generierung mit einer einzelnen GPU auf den Betrieb aus?

  5. Governance: Kann das Design der gemeinsamen Nutzung mit OpenAI und anderen Modellen Transparenz und Verantwortungsabgrenzung bewahren?Microsoft AI


Fazit: Internalisierung ist kein "Zweck", sondern ein "Mittel"

Der Einsatz interner Modelle ist kein "Zweck", um auf derselben Bühne wie OpenAI zu konkurrieren. Es ist ein "Mittel", um das Copilot-Erlebnis, das in den Alltag der Nutzer integriert ist, mit der eigenen Geschwindigkeit zu verbessern. Die Veröffentlichung von MAI-Voice-1 und MAI-1-preview ist nur das erste Kapitel dieser Geschichte. Der Schlüssel zum nächsten Kapitel liegt darin, wie weit die Leistungsdaten vor Ort, der sichere Betrieb und die "Orchestrierung der besten Modelle" umgesetzt werden können.Microsoft AI


Referenzartikel

Microsoft kündigt erstes selbst entwickeltes KI-Modell an
Quelle: https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai

Powered by Froala Editor

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.