Home Uncategorized Der OpenAI-Sprachmodus wird für alle ChatGPT-Kunden eingeführt – hier erfahren Sie, wer...

Der OpenAI-Sprachmodus wird für alle ChatGPT-Kunden eingeführt – hier erfahren Sie, wer ihn als Erster erhält

13
0
Der OpenAI-Sprachmodus wird für alle ChatGPT-Kunden eingeführt – hier erfahren Sie, wer ihn als Erster erhält

Chat-GPT

Der OpenAI Advanced Voice Mode, eine der am meisten erwarteten Funktionen des Spring Launch-Events von OpenAI, hat nun endlich die Alpha-Phase hinter sich und ist für alle ChatGPT Plus- und Teams-Benutzer verfügbar.

Außerdem: Beste KI-Chatbots des Jahres 2024: ChatGPT, Copilot und würdige Alternativen

Am Dienstag gab OpenAI bekannt, dass es mit der Einführung des erweiterten Sprachmodus für ChatGPT Plus- und Team-Benutzer begonnen hat und ihnen einen intelligenteren Sprachassistenten bietet, der ihre Emotionen unterbrechen und darauf reagieren kann. Die Veröffentlichung umfasst außerdem fünf neue Sounds – Arbor, Maple, Sol, Spruce und Vale – verfügbar im Standard- und Advanced-Sound-Modus.

OpenAI sagte, dass der Start für ChatGPT Plus- und Team-Benutzer schrittweise erfolgen wird, während der Start für die Enterprise- und Edu-Level nächste Woche erfolgen wird. Benutzer erfahren anhand einer Popup-Nachricht neben der Option „Sprachmodus“ in der ChatGPT-Benutzeroberfläche, ob ihnen Zugriff gewährt wurde.

Seit der Veröffentlichung der Alpha-Version im Juli hat OpenAI sie angewendet, um den erweiterten Sprachmodus zu verbessern, sodass Akzente in Fremdsprachen besser sind und Gespräche schneller und reibungsloser verlaufen. Auch der erweiterte Soundmodus hat ein anderes Erscheinungsbild, jetzt dargestellt durch eine animierte blaue Kugel.

Um das Erlebnis besser auf den Benutzer zuzuschneiden, kann der erweiterte Sprachmodus jetzt benutzerdefinierte Anweisungen und Erinnerungen verwenden, sodass bestimmte Kriterien berücksichtigt werden können, die der Benutzer bei der Bereitstellung von Antworten teilt oder festlegt.

Wie beim Alpha können Benutzer nicht auf die multimodalen Funktionen des Sprachmodus zugreifen, einschließlich der Unterstützung bei Inhalten auf dem Bildschirm des Benutzers und der Verwendung der Telefonkamera des Benutzers als Kontext für Antworten, wie im Demovideo unten zu sehen ist.

OpenAI testete die Sprachfunktionen mit über 100 externen Red Teamern in 45 Sprachen, um die Modellsicherheit zu gewährleisten. Im August veröffentlichte das Startup die GPT-4o System Card, einen umfassenden Bericht, der die LLM-Sicherheit basierend auf der Risikobewertung gemäß dem OpenAI Preparedness Framework, externem Red-Teaming und mehr, einschließlich Advanced Voice Mode, beschreibt.

Außerdem: Gemini Live kommt endlich auf Android-Handys – wie Sie kostenlos darauf zugreifen können

Sie können für 20 $ pro Monat ChatGPT Plus-Kunde werden. Zu den weiteren Vorteilen der Mitgliedschaft gehören erweiterte Datenanalysefunktionen, unbegrenzte Bilderstellung, fünfmal so viele Nachrichten für GPT-4o und die Möglichkeit, benutzerdefinierte GPTs zu erstellen.

Eine Woche nachdem OpenAI diese Funktion im Mai eingeführt hatte, startete Google eine ähnliche Funktion namens Gemini Live. Bei dieser Funktion handelt es sich auch um einen von LLM unterstützten Konversations-Sprachassistenten zur Verbesserung des Verständnisses und des Konversationsflusses. Anfang dieses Monats hat Google Gemini Live allen Android-Nutzern kostenlos zur Verfügung gestellt. Wenn Sie also Android haben und diese Art von Assistenten erleben möchten, müssen Sie wahrscheinlich nicht für ein ChatGPT Plus-Abonnement bezahlen.



Source link