Tech News

Technik & Digital

OpenAI stellt GPT-4o vor; Öffnet den Zugriff für alle ChatGPT-Benutzer


Auf der Spring Update-Veranstaltung stellte OpenAI sein neuestes Flaggschiffmodell namens GPT-4o („Omni“) vor und es wird für alle verfügbar sein, einschließlich kostenloser und kostenpflichtiger ChatGPT-Benutzer. Schließlich erhalten kostenlose Benutzer kostenlos Zugriff auf Informationen der GPT-4-Klasse. Darüber hinaus werden alle Tools und Premium-Funktionen von ChatGPT Plus auch kostenlosen Benutzern zur Verfügung gestellt.

Um nur einige zu nennen: Kostenlose Benutzer können über ChatGPT auf das Internet zugreifen. Bilder hochladen und auf die Bildverarbeitungsfunktionen von GPT-4o zugreifen; Dateien und Dokumente hochladen und analysieren; Erstellen Sie Diagramme und führen Sie eine erweiterte Datenanalyse durch (früher Code Interpreter genannt). Aktivieren Sie die Speicherfunktion und greifen Sie auch auf GPTs und den GPT-Store zu.

Grundsätzlich bringt OpenAI alle kostenpflichtigen Funktionen in die kostenlose Version von ChatGPT ein. Laut OpenAI wird das neue Modell in den nächsten Wochen für alle Benutzer eingeführt. Beachten Sie, dass die Anzahl der Nachrichten für kostenlose Benutzer begrenzt ist. Sobald Sie das Limit erreicht haben, werden Sie automatisch auf das GPT-3.5-Modell umgestellt.

GPT-4o ist wirklich multimodal

Das Wichtigste an GPT-4o ist, dass es von Grund auf ein multimodales Modell ist. Früher verwendete OpenAI unterschiedliche Modelle für unterschiedliche Modalitäten, was die Latenz erhöhte und zu Unterbrechungen und schlechter Erfahrung führte. Während des Voice-Chats wurde Whisper zur Sprachverarbeitung verwendet. Für das Sehen wurde GPT-4V verwendet, und für die Textverarbeitung und Argumentation, nun ja, GPT-4.

Das GPT-4o-Modell kann jedoch alle drei Modalitäten, einschließlich Text, Audio und Bild, gleichzeitig verarbeiten und intelligent argumentieren. In einigen der auf der Bühne gezeigten Demos fühlte es sich wirklich wie eine Szene direkt aus dem Film „Her“ an. Um so etwas zu erleben, braucht man natürlich eine gute Internetverbindung.

OpenAI stellt GPT-4o vor;  Öffnet den Zugriff für alle ChatGPT-Benutzer
Bild mit freundlicher Genehmigung: OpenAI

Das GPT-4o-Modell kann Dinge in Echtzeit sehen und Gefühle auf natürliche Weise und mit einer Vielzahl von Tönen ausdrücken. Das Gespräch fühlt sich jetzt weniger roboterhaft und spontaner an. Sie können auch mit dem Sprechen beginnen, um es zu unterbrechen und Ihr Gespräch fortzusetzen.

Darüber hinaus versteht das GPT-4o-Modell auch die Emotionen hinter Ihrer Stimme. Wenn Sie sich beispielsweise ängstlich fühlen und schnell atmen, werden Sie aufgefordert, sich zu beruhigen. Es kann auch Sprachen in Echtzeit übersetzen. Laut OpenAI unterstützt das neue GPT-4o-Modell 50 Sprachen.

ChatGPT erhält eine Desktop-App für macOS

Endlich bekommt ChatGPT eine Desktop-App für macOS. Und Sie können mit ChatGPT auch auf Ihrem Mac per Sprachchat chatten. OpenAI hat seiner macOS-App die Vision-Funktion hinzugefügt, was wirklich bemerkenswert ist. Sie können die Sicht aktivieren und Ihr Bildschirm sehen. Wenn Sie programmieren und möchten, dass ChatGPT einen Blick auf Ihren Code wirft, kann es ihn sehen und damit argumentieren. Das ist ziemlich ausgezeichnet. Ich bin mir nicht sicher, ob eine ähnliche ChatGPT-App für Windows verfügbar sein wird.

chatgpt bekommt eine Desktop-App für MacOS
Bild mit freundlicher Genehmigung: OpenAI

Für Entwickler wird das neue GPT-4o-Modell über die API verfügbar sein. Es ist 50 % günstiger, bietet die doppelte Leistung und bietet ein fünfmal höheres Ratenlimit als GPT-4 Turbo.

Nachdem OpenAI nun alle kostenpflichtigen Funktionen den kostenlosen Nutzern zur Verfügung gestellt hat, fragen Sie sich vielleicht, was den ChatGPT Plus-Nutzern noch übrig bleibt. Nun, OpenAI sagt, dass bezahlte Benutzer die fünffache Kapazität von kostenlosen Benutzern haben werden. Darüber hinaus werde OpenAI schon bald das nächste „Frontier“-Modell veröffentlichen, kündigte Mira Murati am Ende der Veranstaltung an. Bezahlte Nutzer werden also schon bald Zugang zum „nächsten großen Ding“ haben.



Source link