OpenAIs neuestes Update: GPT-4 Turbo, Assistants API, ChatGPT Neuerungen

Total
0
Shares
Ein Bild, dass die Pfade und Verknüpfungen von künstlicher Intelligenz wie z. B. ChatGPT und GPT-4 wie ein neuronales Netz symbolisiert.
Bild von Tara Winstead auf Pexels

OpenAI stellt mit GPT-4 Turbo und verbessertem GPT-3.5 Turbo neue Standards im Bereich Künstliche Intelligenz auf, während die Assistants API und erweiterte ChatGPT-Anpassungsmöglichkeiten innovative Wege für Entwickler eröffnen. Die Einbeziehung multimodaler Fähigkeiten und Text-to-Speech erweitert die Funktionalität und Zugänglichkeit, um die Interaktion zwischen Mensch und Maschine nahtloser zu gestalten.

Inhaltsverzeichnis Hide
  1. Kurz und bündig
  2. Einleitung

Kurz und bündig

 

Neue Funktionen von GPT-4 Turbo:

  • OpenAI hat GPT-4 Turbo vorgestellt, das über ein Kontextfenster von 128K verfügt und Ereignisse bis April 2023 kennt.
  • Eingabetokens kosten jetzt $0,01/1K und Ausgabetokens $0,03/1K, was 3-mal bzw. 2-mal billiger ist als beim vorherigen GPT-4.
  • Funktionsaufrufe wurden verbessert, sodass jetzt mehrere Funktionen in einer Nachricht aufgerufen werden können und die Genauigkeit bei der Rückgabe der richtigen Funktionsparameter verbessert wurde.
  • Modellausgaben sind mit der neuen Beta-Funktion für reproduzierbare Ausgaben deterministischer.
  • GPT-4 Turbo ist über die API mit gpt-4-1106-preview zugänglich. Die stabile Version ist für später dieses Jahr geplant.

Aktualisierungen von GPT-3.5 Turbo:

  • Das neue gpt-3.5-turbo-1106 unterstützt standardmäßig ein 16K-Kontextfenster und bietet diesen 4-mal längeren Kontext zu niedrigeren Preisen an: $0,001/1K für Eingabetokens und $0,002/1K für Ausgabetokens. Feintuning dieses Modells ist möglich.
  • Die Eingabetokens kosten jetzt $0,003/1K und Ausgabetokens $0,006/1K.
  • gpt-3.5-turbo-1106 verfügt über verbesserte Funktionsaufrufe und reproduzierbare Ausgaben.

Assistants API:

  • Die Assistants APIist nun verfügbar und im Beta-Status. Dabei geht es um die Nutzung von Ki als Agent.
  • Diese API ermöglicht die Erstellung von zweckgebauten KI-Assistenten, die spezifische Anweisungen befolgen, zusätzliches Wissen nutzen und mit Modellen und Tools interagieren können, um verschiedene Aufgaben auszuführen.
  • Assistants haben persistente Threads, welche die Verwaltung des Thread-Status an OpenAI übergeben und es ermöglichen, Kontextfensterbeschränkungen zu umgehen. Sie können auch neue Tools wie Code Interpreter, Retrieval und Funktionsaufrufe nutzen.
  • Mit Playground kannst du mit diesen neuen Features experimentieren

Multimodale Fähigkeiten:

  • GPT-4 Turbo unterstützt jetzt visuelle Eingaben in der Chat Completions API, was Anwendungsfälle wie Bildbeschriftung und visuelle Analyse ermöglicht. Die Vision-Funktionen sind über das Modell gpt-4-vision-preview zugänglich und werden in die produktionsbereite Version von GPT-4 Turbo integriert, wenn diese später im Jahr aus der Vorschau herauskommt.
  • Es ist auch möglich, DALL·E 3 für die Bildgenerierung in deine Anwendungen über die Bildgenerierungs-API zu integrieren.
  • Außerdem wurden Text-to-Speech-Fähigkeiten durch das neu eingeführte TTS-Modell bereitgestellt, das Text mit einer von sechs natürlich klingenden Stimmen vorlesen kann.

Anpassbare GPTs in ChatGPT:

  • Es wurde eine neue Funktion namens GPTs eingeführt. GPTs kombinieren Anweisungen, Daten und Fähigkeiten zu einer angepassten Version von ChatGPT.
  • Neben den von OpenAI entwickelten Fähigkeiten wie DALL·E oder fortgeschrittener Datenanalyse können GPTs auch von Entwicklern definierte Aktionen aufrufen. Entwickler können einen größeren Teil der Erfahrung kontrollieren.
    Quelle: Newsletter OpenAI, New Models And Developer Tools und Introducing GPTs

Einleitung

OpenAI hat kürzlich einige aufregende Updates enthüllt, die fast schon revolutionär klingen. Diese Neuerungen sind wirklich beeindruckend. ChatGPT, welches bereits zahlreiche Prozesse in Bildung, Programmierung und Content-Erstellung revolutioniert hat, ist dank der jüngsten Entwicklungen bei OpenAI jetzt noch umfangreicher und mächtiger geworden. Mit dem neuen GPT-4 Turbo-Modell, das über ein erweitertes Kontextverständnis verfügt, und der Einführung der Assistants API, die Entwicklern ermöglicht, beeindruckende KI-gestützte Anwendungen zu schaffen, bringt OpenAI starke Änderungen.

Was ist neu bei GPT-4 Turbo?

Stell dir eine Intelligenz vor, die sich an Gespräche erinnert, die länger sind als so mancher Roman. GPT-4 Turbo verdoppelt nicht nur das Kontextfenster im Vergleich zu ihrem Vorgänger, sondern versteht und berücksichtigt auch Ereignisse, die bis April 2023 stattgefunden haben.

Aber was bedeutet das konkret für dich? Zunächst einmal bietet dir GPT-4 Turbo ein Kontextfenster von 128K Tokens. Das ist, als würde die KI jedes Wort eines langen Gesprächs behalten und in der Lage sein, darauf aufzubauen. Umfangreichere Analysen, tiefere Diskussionen und eine nahtlose Anbindung an komplexe Aufgaben, die zuvor undenkbar waren.

OpenAI hat auch die Kostenstruktur stark überarbeitet. Die Preise für Eingabe-Tokens liegen nun bei gerade mal $0,01/1K, und für Ausgabe-Tokens bei $0,03/1K. Verglichen mit dem vorherigen GPT-4-Modell bedeutet das eine Preisreduktion um das Zwei- bis Dreifache – ein Schritt, der die fortschrittlichste KI-Technologie jetzt noch zugänglicher macht.

Ein weiteres Highlight ist die Einführung der Beta-Funktion für reproduzierbare Ausgaben. Damit werden die Antworten von GPT-4 Turbo konsistenter. Es ist dadurch möglich für gleiche Eingaben konsistentere Ergebnisse zu bekommen. Das ist besonders nützlich, wenn du die KI in Anwendungen einbinden möchtest, wo Konsistenz entscheidend ist.

Zugänglich wird das Ganze über die API, indem du einfach gpt-4-1106-preview als Modell in deinem API-Call angibst. Eine stabile, produktionsbereite Version soll später im Jahr erscheinen, aber schon jetzt kannst du mit dieser Vorschauversion experimentieren und sie in deine Projekte integrieren.

Kurzum, GPT-4 Turbo ist eine starke Verbesserung. Ein spannender Schritt vorwärts für Entwickler, Unternehmen und KI-Enthusiasten. Im nächsten Kapitel werfen wir einen Blick auf die Verbesserungen von GPT-3.5 Turbo und was sie für uns bedeuten.

Optimierte Performance: GPT-3.5 Turbo

Mit dem Update unterstützt GPT-3.5 Turbo ein Kontextfenster von 16K Tokens, was einer Vervierfachung des vorherigen Limits entspricht. Für dich bedeutet das mehr Raum für komplexe Anfragen und ausgedehnte Dialoge, was insbesondere in der Entwicklung von Anwendungen mit längeren Interaktionen von unschätzbarem Wert ist.

Doch das ist nicht nur eine Erweiterung in Sachen Kapazität. OpenAI hat auch hier die Preise gesenkt – und das nicht zu knapp. Die Kosten für Eingabetokens wurden um 75% auf $0,003/1K reduziert, während die für Ausgabetokens um 62% auf $0,006/1K gesunken sind. Diese Kostenoptimierung macht es für dich und viele andere Entwickler einfacher denn je, mit dieser fortschrittlichen Technologie zu arbeiten, ohne das Budget zu sprengen.

Die Kombination aus erweitertem Kontextfenster und günstigeren Preisen ist eine Einladung an alle, die bisher gezögert haben, in die Welt der KI-gestützten Anwendungen einzusteigen. Es öffnet Türen für Startups und unabhängige Entwickler, die mit kleineren Budgets operieren, und ermöglicht es ihnen, innovative Lösungen zu schaffen, die mit den Angeboten großer Tech-Unternehmen konkurrieren können.

GPT-3.5 Turbo hat ebenfalls die verbesserten Funktionsaufrufe und die Beta-Funktion für reproduzierbare Ausgaben erhalten.

Die Assistants API

Diese API ermöglicht es dir, speziell konzipierte KI-Assistenten zu erschaffen, die nicht nur Anweisungen befolgen, sondern auch zusätzliches Wissen nutzen und mit Modellen sowie Tools interagieren, um eine Vielzahl von Aufgaben zu meistern. Es ist, als würdest du einen digitalen Mitarbeiter einstellen, der für die spezifischen Bedürfnisse deines Projekts maßgeschneidert ist.

Zusätzlich bietet OpenAIs Plattform Playground die Möglichkeit, mit dieser neuen API zu experimentieren, ohne auch nur eine Zeile Code zu schreiben. Dies senkt die Hürde für Experimente und Prototypenentwicklung dramatisch und macht es einfacher denn je, innovative Ideen schnell zu testen.

Multimodalität

Die Integration von DALL·E 3 in die KI-Erlebniswelt über die Bildgenerierungs-API ermöglicht es Entwicklern, benutzerdefinierte Bilder auf Anfrage zu generieren. Das hat das Potenzial, die Content-Erstellung zu revolutionieren, indem du einzigartige, auf KI basierende Grafiken erstellen kannst, die perfekt auf den jeweiligen Kontext abgestimmt sind.

Zudem hat OpenAI Text-to-Speech (TTS)-Fähigkeiten eingeführt, die eine neue Dimension der Interaktivität bieten. Mit sechs natürlich klingenden Stimmen kann der TTS-Modelltext in gesprochene Sprache umgewandelt werden, was Anwendungen wie virtuelle Assistenten, Bildungstools und interaktive Erlebnisse bereichert. Diese sprachlichen Fähigkeiten eröffnen eine neue Welt der Barrierefreiheit und Benutzerfreundlichkeit, indem sie es ermöglichen, Textinhalte für alle zugänglich zu machen.

Das Potenzial ist enorm und erstreckt sich über zahlreiche Branchen und Anwendungsfälle.

Im nächsten Kapitel tauchen wir tiefer in die spezifischen Änderungen ein, die ChatGPT betreffen. Bleib gespannt, denn die Möglichkeiten sind so vielfältig wie nie zuvor.

ChatGPT-Änderungen

Die neuesten Updates von OpenAI verleihen ChatGPT eine beeindruckende Flexibilität, die es ermöglicht, die Plattform nach deinen spezifischen Bedürfnissen zu gestalten. Das Konzept der anpassbaren GPTs, das OpenAI eingeführt hat, ist revolutionär, weil es dir die Kontrolle gibt, die Persönlichkeit und Fähigkeiten deines ChatGPT zu definieren.

Anpassbare GPTs sind eine Art Baukastensystem für KI. Du kannst jetzt eigene Anweisungen, Daten und Funktionen in ChatGPT integrieren, um eine maßgeschneiderte Version zu erstellen, die genau auf deine Anwendungsfälle zugeschnitten ist. Ob du einen KI-gestützten Kundendienst verbessern oder einen virtuellen Tutor für Bildungszwecke entwickeln möchtest – die anpassbaren GPTs stellen die Bausteine bereit.

Diese Änderungen bedeuten auch, dass du nicht mehr auf die von OpenAI vorgegebenen Fähigkeiten beschränkt bist. Du kannst jetzt eigene definierte Aktionen in ChatGPT integrieren. Dies eröffnet eine Welt der Möglichkeiten für Entwickler. Dank der Architektur von Plugins und Aktionen, die OpenAI absichtlich sehr ähnlich gestaltet hat, ist es ein Leichtes, ein bestehendes Plugin in eine Aktion umzuwandeln – und das in wenigen Minuten.

FAQ: Neueste OpenAI Updates und Funktionen

Was ist GPT-4 Turbo?

GPT-4 Turbo ist das fortschrittlichste KI-Modell von OpenAI mit einem Kontextfenster von 128K Tokens, das weltweite Ereignisse bis April 2023 berücksichtigen kann.

Wie unterscheidet sich die Preisgestaltung von GPT-4 Turbo von früheren Modellen?

Die Preise für GPT-4 Turbo wurden erheblich gesenkt: Eingabetokens kosten jetzt $0.01/1K und Ausgabetokens $0.03/1K, was eine 2- bis 3-fache Preisreduktion im Vergleich zum vorherigen GPT-4-Modell darstellt.

Was wurde bei den Funktionsaufrufen in GPT-4 Turbo verbessert?

Die Funktionsaufrufe wurden verbessert, indem nun mehrere Funktionen in einer einzigen Nachricht aufgerufen werden können, immer gültige Funktionen im JSON-Modus zurückgegeben werden und die Genauigkeit bei der Rückgabe der richtigen Funktionsparameter verbessert wurde.

Was sind reproduzierbare Ausgaben und wie funktionieren sie?

Die neuen reproduzierbaren Ausgaben sind eine Beta-Funktion, die konsistentere Modellausgaben ermöglicht. Das bedeutet, bei gleichen Eingaben erhält man zuverlässigere und vorhersehbarere Ergebnisse.

Wie kann ich auf GPT-4 Turbo zugreifen?

Du kannst GPT-4 Turbo über die API mit dem Modell gpt-4-1106-preview nutzen. Eine stabile, produktionsbereite Version wird später im Jahr veröffentlicht.

Was ist neu bei GPT-3.5 Turbo?

GPT-3.5 Turbo unterstützt nun standardmäßig ein 16K Kontextfenster und bietet diese erweiterte Kontextlänge zu günstigeren Preisen. Die Feinabstimmung dieses 16K-Modells ist ebenfalls verfügbar.

Wie viel kostet die Nutzung von GPT-3.5 jetzt?

Die Preise für feinabgestimmte GPT-3.5-Tokens wurden gesenkt: Eingabetokens kosten nun $0.003/1K und Ausgabetokens $0.006/1K.

Was ist die Assistants API und wie kann sie genutzt werden?

Die Assistants API ist eine Beta-Version, die entwickelt wurde, um agentenähnliche Erlebnisse in Anwendungen zu ermöglichen. Sie unterstützt die Erstellung von KI-Assistenten, die spezifische Anweisungen befolgen, zusätzliches Wissen nutzen und mit Modellen und Tools interagieren können.

Welche neuen Tools unterstützen die Assistants in der API?

Assistants in der API können neue Tools wie den Code Interpreter, Retrieval und Funktionsaufrufe nutzen und haben persistente Threads, die die Verwaltung des Thread-Status vereinfachen.

Was bedeutet die Einführung von multimodalen Fähigkeiten für GPT-4 Turbo?

GPT-4 Turbo unterstützt nun visuelle Eingaben in der Chat Completions API, was Anwendungsfälle wie die Generierung von Bildbeschreibungen und visuelle Analysen ermöglicht.

Wie kann ich die Bildgenerierungsfunktion von DALL·E 3 nutzen?

DALL·E 3 kann über die Image Generation API in deine Anwendungen integriert werden, um benutzerdefinierte Bilder zu generieren.

Was bietet die Text-to-Speech-Fähigkeit?

Die Text-to-Speech-Fähigkeit ermöglicht es, Texte mit einer von sechs natürlichen Stimmen vorlesen zu lassen.


Was sind anpassbare GPTs in ChatGPT und wie funktionieren sie?

Anpassbare GPTs in ChatGPT ermöglichen es, Anweisungen, Daten und Fähigkeiten in einer angepassten Version von ChatGPT zu kombinieren. Entwickler können auch eigene Aktionen definieren und integrieren, was eine größere Kontrolle über das Nutzererlebnis bietet.





Wie hilfreich war dieser Beitrag?

Klicke auf die Sterne um zu bewerten!

Wenn dir der Artikel gefallen hat:
Was hältst du von diesem Thema? Der Informatikstudent ist ein kleiner Blog und für mich ein Hobbyprojekt. Du kannst mich unterstützen, in dem du diesen Beitrag teilst, auf deiner Website verlinkst oder einen Kommentar schreibst. Für dich ist es nur ein kurzer Aufwand, aber mir zeigt es, dass dir der Blog gefällt. Das motiviert mich, mehr Artikel zu schreiben. Schau dich auch gerne nach weiteren Artikeln auf dem Blog um. Vielleicht hilft dir ja noch etwas weiter?

- Daniel
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Was dir auch gefallen könnte