OpenAI setzt erneut Maßstäbe in der KI-Entwicklung

Inhaltsverzeichnis
Primary Item (H2)
07.11.2023, 17:11
7 Min.

Im Zuge der ständigen Weiterentwicklung künstlicher Intelligenz hat OpenAI auf dem DevDay neue Durchbrüche bekannt gegeben, die Entwicklern und Unternehmen revolutionäre Möglichkeiten eröffnen. Zu den herausragenden Neuerungen gehört der GPT-4 Turbo, ein Modell, das nicht nur kosteneffizienter ist, sondern auch eine beeindruckende 128K-Kontextfenster-Unterstützung bietet. Dies ermöglicht es, umfangreiche Textmengen von über 300 Seiten in einem einzigen Prompt zu verarbeiten – eine echte Innovation in der Welt der KI.

GPT-4 Turbo mit 128K Kontext

Der GPT-4 Turbo hebt sich durch seine verbesserte Kapazität und das Wissen über Ereignisse bis April 2023 hervor. Die Optimierung der Leistung führt zu erheblichen Kosteneinsparungen für die Nutzer und verspricht, die Art und Weise, wie wir mit KI-Modellen interagieren, zu transformieren.

Funktionaufrufe-Updates

Ein besonderer Fortschritt ist die Einführung von verbesserten Funktionaufrufen. Mit dieser Funktion kann das Modell Funktionen innerhalb einer App oder externer APIs aufrufen, wodurch ein effizienterer und genauerer Ablauf gewährleistet wird.

Verbesserte Anweisungsbefolgung und JSON-Modus

Die genaue Befolgung von Anweisungen und die Unterstützung eines neuen JSON-Modus sind zwei weitere bedeutsame Verbesserungen. Sie erlauben es Entwicklern, präzise und valide JSON-Antworten zu generieren, was die Integration in bestehende Systeme und Workflows erheblich vereinfacht.

Reproduzierbare Ausgaben und Log-Wahrscheinlichkeiten

Mit dem neuen seed-Parameter können nun reproduzierbare Ausgaben erzielt werden, was die Qualitätssicherung und das Debugging entscheidend verbessert. Die baldige Einführung von Funktionen zur Rückgabe von Log-Wahrscheinlichkeiten wird zudem die Entwicklung von Autocomplete-Funktionen in Sucherfahrungen vorantreiben.

Aktualisiertes GPT-3.5 Turbo

Nicht zuletzt stellt OpenAI auch ein aktualisiertes GPT-3.5 Turbo-Modell vor, das mit einem erweiterten 16K-Kontextfenster und verbesserten Fähigkeiten zur Anweisungsbefolgung aufwartet.

Assistant-API, Retrieval und Code-Interpreter

Mit der Einführung der Assistants API leitet OpenAI eine neue Ära für Entwickler ein, um agentenähnliche Erfahrungen in ihren Anwendungen zu schaffen. Dieses innovative API ermöglicht es, maßgeschneiderte KI-Assistenten zu erstellen, die auf ein breiteres Spektrum an Wissen zugreifen können. Die Anwendungsmöglichkeiten dieser API sind vielfältig und reichen von einer natürlichen Sprachschnittstelle für die Datenanalyse über eine Programmierhilfe bis hin zu einem KI-basierten Urlaubsplanungsdienst​​.

Code-Interpreter

Ein zentraler Bestandteil der Assistants API ist der Code Interpreter, ein leistungsstarkes Tool von OpenAI, das dafür entwickelt wurde, Python-Code in einer sicheren und kontrollierten Umgebung zu verfassen und auszuführen. Nach seiner Einführung im März für ChatGPT erlaubt der Code Interpreter das Erstellen von visuellen Grafiken und Diagrammen sowie die Dateiverarbeitung. Diese Erweiterung ermöglicht es den mit der Assistants API entwickelten Assistenten, iterativ Code auszuführen und Lösungen für Programmier- und mathematische Probleme zu liefern​​.

Retrieval-Komponente

Die Assistants API verfügt über eine Retrieval-Komponente, die es ermöglicht, externe Wissensquellen wie Produktdetails oder firmeneigene Dokumente in die entwickelten Assistenten zu integrieren. Diese Komponente bereichert die Assistenten mit Informationen, die über das in OpenAIs eigenen Modellen verfügbare Wissen hinausgehen. Darüber hinaus erleichtert die API das Aufrufen von Funktionen, wodurch diese Assistenten vordefinierte Programmierfunktionen ausführen und die Ergebnisse nahtlos in ihre Interaktionen integrieren können​.

Lange Threads und Datensicherheit

Die Assistants API führt auch persistente und unendlich lange Threads ein, die die Last des Verwaltens von Thread-Zuständen verringern. Dies ermöglicht es Entwicklern, nuancierte und kontextbewusste Anwendungen zu entwickeln. Dabei wird besonderer Wert auf Datensicherheit gelegt: Daten, die über die API verarbeitet werden, werden nicht zum Training der Modelle von OpenAI verwendet, was den Entwicklern die Kontrolle über ihre Daten gibt. Die API bleibt in der Beta-Phase und ist für alle Entwickler zugänglich, die ihr Potenzial erkunden möchten. OpenAI plant, die Anpassungsfähigkeiten seiner Plattform zu erweitern, um Kunden die Integration eigener Werkzeuge in den Rahmen der Assistants API zu ermöglichen, was die bestehenden Funktionen wie den Code Interpreter, die Retrieval-Komponente und die Funktion zur Ausführung von Funktionen ergänzt​.

Die Assistants API markiert einen bedeutenden Fortschritt in der Ermöglichung von Entwicklern, "agentenähnliche Erfahrungen" innerhalb ihrer Anwendungen zu schaffen. Sie ist ein vielseitiges Werkzeug, das externe Wissensquellen in die von Entwicklern erstellten Assistenten integrieren kann. Diese Funktionalität wird durch eine Retrieval-Komponente ermöglicht, die die Assistenten mit Informationen anreichert, die über das hinausgehen, was in den eigenen Modellen von OpenAI verfügbar ist. Zusätzlich erleichtert die API das Aufrufen von Funktionen, wodurch diese Assistenten vordefinierte Programmierfunktionen ausführen und die Ergebnisse nahtlos in ihre Interaktionen integrieren können​​.

Neue Modalitäten in der API: Vision, DALL·E 3 und Text-to-Speech

OpenAI führt in seiner API neue Modalitäten ein, die die Interaktivität und Anwendungsbreite von KI erweitern. Diese Neuerungen umfassen GPT-4 Turbo mit Vision, DALL·E 3 und eine Text-to-Speech (TTS)-Funktionalität.

GPT-4 Turbo mit Vision

Die neueste Version von GPT-4, GPT-4 Turbo, unterstützt jetzt Bilder als Eingaben. Dies ermöglicht der KI, Bildunterschriften zu generieren, Bilder zu analysieren und Informationen aus Dokumenten mit Abbildungen zu extrahieren​​.

DALL·E 3

DALL·E 3, das über die Images API verfügbar ist, stellt einen bedeutenden Fortschritt gegenüber früheren Versionen dar. Es versteht deutlich mehr Nuancen und Details und ermöglicht es Benutzern, ihre Ideen in außergewöhnlich präzise Bilder umzusetzen. DALL·E 3 ist nativ auf ChatGPT aufgebaut und ermöglicht es, ChatGPT als Brainstorming-Partner und zur Verfeinerung von Prompts zu nutzen. Benutzer können ChatGPT auffordern, detaillierte Prompts für DALL·E 3 zu generieren, die ihre Ideen zum Leben erwecken. Wenn ein bestimmtes Bild gefällt, aber nicht ganz passend ist, kann man ChatGPT bitten, mit nur wenigen Worten Anpassungen vorzunehmen. Es wurden Maßnahmen ergriffen, um die Erzeugung von gewalttätigen, erwachsenen oder hasserfüllten Inhalten einzuschränken, und es gibt Mittel, um Anfragen, die Bilder im Stil eines lebenden Künstlers verlangen, abzulehnen​.

Text-to-Speech (TTS)

Die TTS-API ermöglicht es Entwicklern, hochwertige gesprochene Audiodateien aus Text zu generieren. Es stehen sechs voreingestellte Stimmen zur Auswahl und zwei Modellvarianten, tts-1 und tts-1-hd. tts-1 ist für Echtzeitanwendungen optimiert, während tts-1-hd für hohe Qualität optimiert ist. Die TTS-API bietet auch die Möglichkeit, Audio zu streamen, indem man stream=True setzt, was bedeutet, dass die zurückgegebene Audiodatei in Segmente unterteilt werden kann. Die Preise beginnen bei $0.015 pro 1.000 Eingabezeichen (nicht Tokens), und die Rate-Limits beginnen bei 50 Anfragen pro Minute für bezahlte Konten​.

Diese neuen Funktionen erweitern das Spektrum der KI-Anwendungen erheblich und bieten Entwicklern neue kreative Wege, um mit ihren Benutzern zu interagieren.

Modellanpassung bei OpenAI

OpenAI hat neue Wege der Modellanpassung eingeführt, die es Entwicklern und Organisationen ermöglichen, ihre KI-Modelle noch spezifischer auf ihre Bedürfnisse zuzuschneiden.

Experimenteller Zugang zur GPT-4 Feinabstimmung

Das Unternehmen hat ein experimentelles Zugangsprogramm für die Feinabstimmung von GPT-4 gestartet. Die vorläufigen Ergebnisse zeigen, dass die Feinabstimmung von GPT-4 mehr Aufwand erfordert, um bedeutende Verbesserungen gegenüber dem Basismodell zu erreichen – im Vergleich zu den erheblichen Verbesserungen, die mit der Feinabstimmung von GPT-3.5 erzielt wurden. Mit der Verbesserung von Qualität und Sicherheit der Feinabstimmung von GPT-4 wird Entwicklern, die aktiv GPT-3.5 Feinabstimmung nutzen, die Möglichkeit geboten, sich für das GPT-4 Programm über ihre Feinabstimmungskonsole zu bewerben.

Individuelle Modelle

Für Organisationen, die mehr Anpassung benötigen, als die Feinabstimmung bieten kann, insbesondere in Domänen mit extrem großen proprietären Datensätzen (mindestens Milliarden von Token), bietet OpenAI ein Custom Models-Programm an. Ausgewählte Organisationen erhalten die Möglichkeit, zusammen mit einem speziellen Team von OpenAI-Forschern, GPT-4-Modelle speziell für ihren Bereich zu trainieren. Dies beinhaltet die Anpassung jedes Schrittes des Trainingsprozesses, von zusätzlichem domänenspezifischen Pre-Training bis hin zu einem maßgeschneiderten RL Post-Training-Prozess, der auf die spezifische Domäne zugeschnitten ist. Organisationen haben exklusiven Zugang zu ihren individuellen Modellen. Im Einklang mit den bestehenden Datenschutzrichtlinien für Unternehmen werden individuelle Modelle nicht anderen Kunden zur Verfügung gestellt oder geteilt, noch werden sie verwendet, um andere Modelle zu trainieren. Auch werden proprietäre Daten, die OpenAI zum Training individueller Modelle zur Verfügung gestellt werden, in keinem anderen Kontext wiederverwendet. Dies wird zunächst ein sehr begrenztes (und teures) Programm sein, für das sich interessierte Organisationen bewerben können​.

Niedrigere Preise und höhere Rate Limits

Niedrigere Preise

OpenAI hat angekündigt, mehrere Preise auf der Plattform zu senken, um Einsparungen an Entwickler weiterzugeben. Die neuen Preise sind wie folgt strukturiert:

  • GPT-4 Turbo-Eingabetoken sind dreimal günstiger als GPT-4 bei $0,01 und Ausgabetoken sind zweimal günstiger bei $0,03.
  • GPT-3.5 Turbo-Eingabetoken sind dreimal günstiger als das vorherige 16K-Modell bei $0,001 und Ausgabetoken sind zweimal günstiger bei $0,002. Entwickler, die zuvor GPT-3.5 Turbo 4K verwendet haben, profitieren von einer 33%igen Reduzierung bei Eingabetoken auf $0,001.
  • Fein abgestimmte GPT-3.5 Turbo 4K-Modell-Eingabetoken sind um das Vierfache reduziert auf $0,003 und Ausgabetoken sind um das 2,7-Fache günstiger bei $0,006. Feinabstimmung unterstützt jetzt auch ein 16K-Kontextfenster zum gleichen Preis wie 4K mit dem neuen GPT-3.5 Turbo-Modell​​.

Höhere Rate Limits

Um die Skalierung von Anwendungen zu unterstützen, hat OpenAI das Tokenlimit pro Minute für alle zahlenden GPT-4-Kunden verdoppelt. Die neuen Rate Limits können Nutzer auf ihrer Rate-Limit-Seite einsehen. OpenAI hat auch seine Nutzungsebenen veröffentlicht, die automatische Erhöhungen der Rate Limits bestimmen, damit Entwickler wissen, was sie in Bezug auf die Skalierung ihrer Nutzungslimits erwarten können. Nutzer können nun Erhöhungen ihrer Nutzungslimits über ihre Kontoeinstellungen anfragen.

Noch keine Kommentare

Teilen Sie uns Ihre Meinung mit!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter-Anmeldung
Abonnieren Sie unseren Newsletter für aktuelle Updates zu Technologie, Marketingstrategien und Webentwicklungen.
Artikel teilen
lead.online Logo Weiß
Ihre Digitalagentur für smarte Weblösungen, digitale Transformation und nachhaltiges Online Marketing.