Dynamics 365-Marketing erhält mit Prometheus Model ab April Suchabfragen per Sprache
Dank Alexa und Co gewöhnen sich Anwender immer mehr daran, ihre Fragen ganz natürlich an den Rechner zu richten – ganz so, als ob sie es mit einem Mitmenschen zu tun hätten. Diesen Trend unterstützt Microsoft künftig auch in Dynamics 365.
Laut den Release-Plänen von Microsoft wird Dynamics 365-Marketing Ab kommenden Monat Spracheingaben (besser) verstehen. Das „Query Assist Feature“ wird mit künstlicher Intelligenz (KI) aufgewertet, so dass Suchabfragen auch einfach, also „natürlich“ ausgesprochen werden können. Bislang mussten Fragen sehr genau formuliert werden, etwa „Zeige alle Kontakte in Firma X“. Ab 1. April versteht Dynamics dann auch „Ich arbeite bei Firma X. Bitte zeige mir dort weitere Kontakte.“
Dynamics geht damit den Weg, den Microsoft bereits in den Vorschauen auf die https://www.bing.com/ kommende Bing-Suchmaschine als auch auf den Edge-Browser eingeschlagen hat: Für komplexere Suchanfragen gibt es dort bald einen künstlich intelligenten (KI) sowie interaktiven Chat, der die Suche bis zum gewünschten Ergebnis verfeinern soll.
„KI wird jede Softwarekategorie grundlegend verändern, angefangen bei der größten Kategorie von allen – der Suche im Web“, kommentierte Microsoft-CEO Satya Nadella. Suchabfragen in kommenden Microsoft-Produkten werden entsprechend voraussichtlich immer per natürlicher Sprache möglich sein.
Mit KI die Suche neu erfinden
Wie soll das gehen? Jordi Ribas, CVP, Search & KI, gibt darüber Auskunft: „Letzten Sommer hat OpenAI ihr GPT-Modell der nächsten Generation mit uns geteilt, und es war bahnbrechend“, berichtet er. „Das neue Modell war viel leistungsfähiger als GPT-3.5, das ChatGPT antreibt, und viel besser in der Lage, zu synthetisieren, zusammenzufassen, zu chatten und zu erstellen. Dieses neue Modell hat uns nachsehen lassen, wie wir die GPT-Funktionen in Bing integrieren können, damit wir genauere und vollständigere Suchergebnisse für jede Abfrage liefern können, einschließlich langer, komplexer, natürlicher Abfragen.“
Das Verständnis von natürlichen Abfragen basiert offensichtlich auf GPT-3.5, das aktuell für so viel Furore sorgt und dessen beeindruckendstes Merkmal das Verständnis für gesprochene Eingaben ist. Auch kann es diverse Inhalte kreieren, in Form von Texten, Software oder auch Sprache. Darüber hinaus kommt https://www.forbes.com/sites/bernardmarr/2023/02/24/gpt-4-is-coming–what-we-know-so-far/ mutmaßlich auch GPT in der Version 4 zum Einsatz. Dieses KI-Modell wird gerade anhand von 100 Billionen Parametern trainiert und soll dann komplette Bücher schreiben können. Das ist allerdings Spekulation, und Anwender sollten immer im Hinterkopf behalten, dass die KI eben nicht „intelligent“ oder gar selbstbewusst ist, sondern seine Klugheit stets vorspielt.
Egal ob GPT-4 nun tatsächlich zum Einsatz kommt hat Microsoft das OpenAI-Modell mit eigenen Methoden angereichert, genannt das Prometheus-Modell (nicht zu verwechseln mit dem „https://www.microsoft.com/en-us/research/project/prometheus-microsoft-research/ Prometheus Project“). Dabei handelt es sich um eine proprietäre Technologie aus dem Bereich des Large Language Models (LLMs), das mit dem Bing Back-End kurzgeschlossen wurde, erklärt Ribas.
„Prometheus nutzt die Leistungsfähigkeit von Bing und GPT, um eine Reihe interner Abfragen iterativ über eine Komponente namens Bing Orchestrator zu generieren, und zielt darauf ab, eine genaue und umfassende Antwort auf die Benutzerabfrage innerhalb des gegebenen Konversationskontexts bereitzustellen“, so Ribas weiter. „Alles innerhalb von Millisekunden. Wir bezeichnen diese von Prometheus generierte Antwort als Chat-Antwort.“
Das folgende Diagramm von Ribas soll veranschaulichen, wie Prometheus funktioniert:
Mittels einer „Grounding“ genannten Technik sei Prometheus zudem in der Lage, auf Basis von Kontextdaten wie etwa der geografischen Region Wörter besser einordnen zu können.
Kein KI ohne Azure
Die neuen Möglichkeiten der KI werden aber erst dadurch freigesetzt, dass Microsoft Azure künftig Rechenpower im Bereich von Supercomputern offerieren will. Ein erstmals auf der Entwicklerkonferenz Build 2020 vorgestellte System besteht aus 285.000 CPU-Kernen und 10.000 GPUs. Dazu kommt eine Netzwerkanbindung an GPU-Server mit einer Übertragungskapazität von 400 Gigabit pro Sekunde. So lässt sich eine riesige Anzahl an Rechenoperationen beispielweise im Natural Language Processing (NLP) parallel zu anderen Prozessen durchführen.
Der in Microsoft Azure gehostete Supercomputer entstand in Zusammenarbeit mit OpenAI – mit wem auch sonst? – und dient exklusiv dem Training von massiv verteilten KI-Modellen. Die Computing-Partnerschaft von OpenAI mit Microsoft war erstmals im Juli 2019 bekanntgegeben worden.
Microsoft hat auf Basis dieser Kooperation sowie im Rahmen einer unternehmensweiten AI at Scale-Initiative eine eigene Familie großer KI-Modelle entwickelt, die Microsoft Turing Models, die zur Spracherkennung über mehrere unterschiedliche Dienste hinweg eingesetzt werden können. Auf der Build 2020 hatte Microsoft darüber hinaus angekündigt, die KI-Modelle zur Open Source zu machen und Anleitungen für das Training in Azure Machine Learning zu veröffentlichen.
Vorabversion liefert Beispiele
Ist das Ergebnis brauchbar? Wird es für Anwender von Dynamics Sinn machen? Anwender können sich selbst ein Bild machen: Das neue Bing ist bereits jetzt in einer begrenzten Vorschau auf dem Desktop verfügbar. Interessierte können es besuchen, um Beispielabfragen zu stellen und sich auf die Warteliste für die Vollnutzung setzen zu lassen.
- Whitepaper über rechtssichere Dokumentenverarbeitung in Business Central - 9. August 2023
- Dynamics 365 im Einsatz: Wie Elektronik-Distributor Wittig seine Warenwirtschaft automatisiert - 26. Juni 2023
- Besser wieder raus aus der Cloud? Steigende Lizenzgebühren für Services stehen in der Kritik - 6. Juni 2023