Text: Zhou Xinyu
Herausgeberin: Anita Tang
„Zwei einfache Buchstaben genügen, um den großen technologischen Wandel dieses Jahres genau darzustellen: das A und das I.“
Vom 23. bis 25. Mai 2023 widmet sich Microsofts jährliche Entwicklerkonferenz Build dem Entwicklungsthema der KI-Branche für das nächste Jahr. Nach der Zusammenarbeit mit OpenAI wurde Microsofts „KI-Reengineering“ des gesamten Unternehmens zum Vorreiter der gesamten Branche: die Einführung von New Bing, einer mit GPT-4 verbundenen Suchmaschine, und Copilot, einer KI-Assistentenplattform für Office-Zusammenarbeit Software Teams und andere Geschäftsanwendungen.
Auf der diesjährigen Build-Konferenz hat Microsoft erneut die Königsbombe geworfen und einen AI-Familien-Bucket auf den Markt gebracht, der Softwareanwendungen und Cloud-Dienste abdeckt – darunter Copilot und mehr als 50 neue Plug-Ins, die die absoluten Protagonisten der Konferenz sind.
Als Brücke zwischen natürlicher Sprache und Programmiersprache gilt Copilot als wichtige Komponente, um Benutzer bei der Nutzung von KI-Funktionen im KI-Zeitalter zu unterstützen. Auf der diesjährigen Konferenz erweiterte Copilot seinen Schwerpunkt von Microsoft 365 und Github auf Windows und Datenbanken.
Als Träger von Modellfähigkeiten bilden Plug-ins ein auf KI-Modellen basierendes Anwendungsökosystem. Die Eröffnung von Build in diesem Jahr wird von der umfassenden gemeinsamen Nutzung der Plug-in-Ökologie von Bing und ChatGPT begleitet.
Darüber hinaus wird Microsoft im Rahmen der Build-Konferenz im Jahr 2022 weniger Code/keinen Code gründlicher implementieren – eine Reihe von Azure-Dienstökosystemen für die KI-Anwendungsentwicklung werden eingerichtet.
Vor zwei Monaten schockierte der Zugriff des KI-Assistenten Copilot auf Office 365 die gesamte Branche, und nun hat Microsoft einen weiteren Fire-Embedment-Copilot in Windows hinzugefügt und macht Windows damit zum weltweit ersten PC-System, das KI-Dienste integriert.
Einfach ausgedrückt: „Fragen stellen“ kann alles lösen – Benutzer können Befehle in die Copilot-Oberfläche eingeben und Windows Copilot kann automatisch alle Anwendungen im System aufrufen, was den Prozess und die Zeit für die Suche, Aktivierung und anwendungsübergreifende Komprimierung erheblich vereinfacht.
Verwenden Sie Windows Copilot, um die Musikplayer-Software Spotify aufzurufen
Windows hat nach wie vor die Dominanz des PC-Systems inne. Selbst im Januar 2022 gibt es immer noch 1,4 Milliarden monatlich aktive Geräte mit Windows 10 und 11, was mehr als 70 % des globalen Betriebssystemmarktes ausmacht.
Daher bedeutet die Verbindung von Copilot mit Windows anstelle der Verwendung von Klickinteraktionen – also dem Aufrufen von Anwendungen per Code –, dass Benutzerinteraktionsmethoden und Software-Refactoring offiziell begonnen haben.
Kevin Scott, Chief Technology Officer und Vizepräsident von Microsoft AI, sagte, dass es kaum vorstellbar sei, dass Software nicht mit dem Internet verbunden werden könne. In Zukunft werde Copilot genauso wichtig sein wie das Internet.
„Microsoft stellt Entwicklern alle Tools zur Verfügung, die sie zum Erstellen von Copilot benötigen“, sagte er. „In den nächsten Jahren wird Copilot zum Standard für die gesamte Softwareproduktion werden.“
Derzeit integriert Windows Copilot Bing Chat und andere Plug-Ins von Erst- und Drittanbietern. **Im Juni dieses Jahres wird Windows Copilot Preview in Windows 11 gestartet. **
Seit der Veröffentlichung von ChatGPT fand die größte KI-Reform erstmals im Bereich der Suche statt – im Februar dieses Jahres kündigte Microsoft die Einführung der Browser Bing und Edge an, einer neuen Suchmaschine, die auf ChatGPT basiert.
Jetzt plant Microsoft, die ökologischen Barrieren zwischen Bing und ChatGPT vollständig zu durchbrechen, um eine offenere Plug-in-Ökologie aufzubauen.
Einerseits kündigte Microsoft an, dass New Bing denselben offenen Plug-In-Standard wie ChatGPT übernehmen wird, um die Interoperabilität von Plug-Ins in ChatGPT und der Breite der Microsoft Copilot-Produkte zu realisieren.
Während des Gesprächs mit ChatGPT können Benutzer Fragen in Echtzeit stellen. ChatGPT liefert zeitkritische Antworten und markiert den Quelllink der Antwort. Benutzer können über den Link die Bing-Webseite besuchen.
Greifen Sie auf ChatGPT von Bing Chat zu.
Ein weiteres Beispiel: Nach der Freigabe des Plug-in-Ökosystems von ChatGPT kann der entsprechende Plug-in-Dienst automatisch aufgerufen werden, wenn Benutzer Informationen in Bing abfragen. Nach der Aktivierung des Plug-ins von Zillow, einem Immobiliendienstleister, können Benutzer beispielsweise nach der Suche nach Häusern in Chicago in Bing automatisch Zillow für weitere Beratung anrufen.
Bing integriert die Plug-in-Funktion von ChatGPT.
Bing erweitert ständig die Reihe der unterstützten Plugins. Derzeit stellt Microsoft seinen Kunden mehr als 50 Plug-Ins zur Verfügung, darunter die bisherige Online-Bestellplattform OpenTable, die Computing Knowledge Engine Wolfram Alpha usw. Microsoft hat außerdem allen mitgeteilt, dass die Zahl der von Bing unterstützten Plug-Ins in Zukunft auf Tausende anwachsen wird.
Andererseits wird Bing als Standardsuchmaschine in ChatGPT eingebettet.
ChatGPT ist derzeit die am schnellsten wachsende KI-Anwendung. Dies bedeutet, dass eine große Anzahl von Benutzern über ChatGPT auf das Netzwerk zugreifen kann, wodurch das Aktualitätsproblem der ursprünglichen Datenbank von ChatGPT gelöst wird. Ab dem 23. Mai können ChatGPT Plus-Abonnenten ChatGPT nach dem Networking direkt nutzen, und normale Benutzer können denselben Dienst nutzen, indem sie das Bing-Plug-in aktivieren.
Mit dem Aufkommen der KI-Ära hat sich auch die Rolle des Microsoft Store verändert: Er ist nicht nur ein Ort zum Herunterladen von Anwendungen oder Spielen, sondern ein wichtiger Anbieter von KI-nativen Anwendungsdiensten – wie man Kunden dabei hilft, die Arbeitseffizienz zu verbessern , Aufgaben erledigen und neue Inhalte entdecken.
Zu diesem Zweck hat der Microsoft Store zwei Funktionen eingeführt: KI-generierte Schlüsselwörter und KI-generierte Bewertungszusammenfassungen. Gleichzeitig hat der Microsoft Store einen eigenen Bereich für KI-Anwendungen eingeführt, um Kunden eine Reihe von KI-Diensten anzubieten. Kunden können beispielsweise Apps wie De, Krisp und Podcastle verwenden, um Videos und Audio zu erstellen und zu bearbeiten, und Kickresume, um einen Lebenslauf zu erstellen.
AI Store im Microsoft Store
„Sie müssen bedenken, dass das Modell nicht Ihr Produkt ist, es sei denn, Sie sind selbst ein Infrastrukturunternehmen – genauso wie das Modell selbst nur die Grundlage zur Unterstützung des Produkts ist und nichts an sich.“
Bei dem Treffen betrachtete Microsoft-CTO Kevin Scott das Modell als den Boden subversiver Anwendungen. Anders als der Ausgangspunkt der traditionellen Softwareentwicklung kann die auf KI-Funktionen basierende Entwicklungsplattform die Schwelle für kreative Umsetzung erheblich senken.
Copilot-Stack
Zu diesem Zweck hat Microsoft die KI-Entwicklungsplattform Copilot Stack ins Leben gerufen, um Entwickler bei der Entwicklung personalisierter Copiloten zu unterstützen. Copilot Stack vereinfacht den Copilot-Entwicklungsprozess in drei Schritte:
Wählen Sie die Modellbasis aus, z. B. den Aufruf von GPT-4 über den Azure OpenAI-Dienst.
Kombination von KI-Fähigkeiten. In diesem Link muss der Entwickler einen „Meta-Hinweis (Meta-)“ bereitstellen, der eine grundlegende Beschreibung der Funktionen und Betriebsmethoden von Copilot darstellt;
Zugriff auf Daten und andere Dienste, die Plug-ins bereitstellen können.
Die offene KI-Plattform kann Copilot und Plug-Ins skalierbar machen. Entwickler können die Ökologie von Copilot durch Copilot Stack erweitern. In der Zwischenzeit können Entwickler neue Plugins über das Microsoft Teams Toolkit für Visual Studio Code und Visual Studio erstellen.
Um die Entwicklungseffizienz zu verbessern, hat Microsoft außerdem Dev Home eingeführt, eine Entwicklungstoolplattform in Windows 11, um den Arbeitsablauf von Entwicklern zu vereinfachen.
Darüber hinaus entwickelt Microsoft Copilot oder entsprechende Funktionen, die bei der Entwicklung von Plug-Ins helfen können. Beispielsweise können Visual Studio Code, GitHub Copilot und GitHub Codespaces den Prozess für Entwickler zum Erstellen, Debuggen und Bereitstellen neuer Plug-Ins vereinfachen. In Zukunft wird Azure AI auch die Funktion zum Ausführen und Testen von Plug-Ins einführen private Unternehmensdaten.
Auf der diesjährigen Build-Konferenz rief Microsoft: „Auf Azure haben wir alles, was wir für die Entwicklung von Copilot brauchen“ – Azure AI Studio wird offiziell gestartet.
Azure AI Studio entspricht einem Produktivitätstool im KI-Zeitalter und hilft Benutzern bei der Erstellung von KI-Modellen und -Anwendungen. Azure AI Studio verfügt über integrierte Modelle wie GPT-4/3.5, ChatGPT und DALL E 2, die auf OpenAI basieren und mit denen Entwickler KI-Modelle erstellen, trainieren, bewerten und bereitstellen sowie KI-Anwendungen auf der Grundlage privater Daten entwickeln können.
Benutzer können private Daten in Azure AI Studio hochladen.
Benutzer trainieren verwandte Anwendungen basierend auf privaten Daten.
Microsoft weist darauf hin, dass Azure AI Studio sich an das Wertversprechen der Einhaltung der Organisationsrichtlinien und Zugriffsrechte des Benutzers hält und keinen Einfluss auf die Sicherheit, Datenrichtlinien oder Dokumentsequenzen der anderen Partei hat. Kunden können verschiedene Datenbereitstellungsmethoden und Zugriffsmethoden (unternehmensinterne/externe Daten) wählen, und Azure AI Studio unterstützt auch verschiedene Datenformate.
Microsoft gab an, dass mehr als 4.500 Unternehmen Azure OpenAI-Dienste genutzt haben, darunter Coursera, Grammarly, Volvo und IKEA.
Wie wird die Software der Zukunft aussehen? Microsoft nutzte zunächst den Bereich der Datenanalyse, um eine Stichprobe zu erstellen.
Microsofts neues Microsoft Fabric, eine End-to-End-Datenanalyseplattform, integriert Microsofts Power BI, Data Factory und die Synapse-Software der nächsten Generation.
Hinsichtlich der Funktionalität deckt Microsoft Fabric Funktionen wie Data Engineering, Datenintegration, Data Warehouse, Data Science, Echtzeitanalyse, Anwendungsbeobachtbarkeit und Geschäftsanalyse ab. Alle Funktionen werden automatisch mit der integrierten Multi-Cloud-Bereitstellungsdatenbank OneLake von Fabric verbunden und die Datenbank wird automatisch für die Datennutzung indiziert. Durch funktionale Integration bietet Microsoft Fabric maßgeschneiderte Dienste für Kunden mit unterschiedlichem technischen Hintergrund.
Andererseits senkt Microsoft Fabric auch die Schwelle für den Einsatz von Datenanalysen erheblich. Mit Copilot können Benutzer Datenflüsse erstellen, Code generieren und Funktionen vervollständigen, Modelle für maschinelles Lernen erstellen oder Ergebnisse ohne Code durch Dialog und einfache Vorgänge visualisieren. Benutzer können das Modell sogar im Azure OpenAI-Dienst aufrufen, um Plug-in-Anwendungen auf Basis privater Daten zu entwickeln.
In einem Bereich wie der Datenanalyse sind starke Professionalität und verstreute Dienste häufige Schwachstellen – allein in den Vereinigten Staaten gibt es Hunderte von Anwendungen auf dem Datenanalysemarkt, und Benutzer, die Datenanalysen durchführen möchten, müssen viele Anwendungsmodule erwerben. Aber mit Copilot ist Microsoft Fabric gleichbedeutend mit der Vereinheitlichung vieler Datenanalyse-Softwarefunktionen.
Satya Nadella, CEO von Microsoft, sagte außerdem, dass er die Veröffentlichung von Microsoft Fabric als „die wichtigste Veröffentlichung von Microsoft seit der Veröffentlichung von Microsoft SQL Server (Microsofts SQL-Datenbankprodukt) vor sieben Jahren“ bezeichnete.
Ein offensichtlicher Trend besteht darin, dass sich der Schwerpunkt der diesjährigen Microsoft Build-Konferenz allmählich von der Bereitstellung KI-toolbasierter Dienste im letzten Jahr auf die Phase der KI-Tools + KI-Anwendungsökologie verlagert hat.
Die bloße Bereitstellung von Rechenleistung für OpenAI reicht für Microsoft und OpenAI nicht aus, um eine tiefgreifende Zusammenarbeit zu erreichen. Um diese KI-Revolution zu starten, sind die ursprüngliche Unternehmenssoftware, die Unternehmensdienstfunktionen und die Ökologie von Microsoft der Schlüssel.
In einem Gespräch mit Microsoft-CTO Kevin Scott sprach OpenAI-Mitbegründer Greg Brockman über die Gründe für die erfolgreiche Zusammenarbeit von OpenAI mit Microsoft: „Wir haben eine End-to-End-Plattform zum Erstellen von KI-Anwendungen.“
Das sogenannte „End-to-End“ erfordert nicht nur, dass Unternehmen über ein vollständiges Anwendungs- und unterstützendes Tool-Ökosystem verfügen, sondern auch eine starke Infrastruktur wie die Cloud. Dies lässt Brockman auch zu der Einschätzung kommen, dass der interessanteste Copilot nicht etabliert werden wird in der Open-Source-Community.
Darüber hinaus ist „Open Eco (offene Ökologie)“ ein Schlagwort, das bei dem Treffen immer wieder erwähnt wird. Microsofts KI-„Familien-Bucket“ ist darauf offensichtlich gut vorbereitet – die Plug-in-Ökologie über Bing und ChatGPT richtet sich an einzelne Benutzer, während die Low-Code-Entwicklungsökologie auf Basis von Azure-Diensten und Copilot auf Unternehmensbenutzer ausgerichtet ist.
In nur wenigen Monaten hat sich die durch das KI-Modell ausgelöste revolutionäre Welle schnell von einem einzigen Technologiepunkt auf das globale Software-Ökosystem ausgeweitet. Copilot (Co-Pilot) beschleunigt, globale Benutzer müssen still sitzen.