OpenAI führt seine mit Spannung erwartete Sprachassistentenfunktion, bekannt als „erweiterter Sprachmodus“, für alle zahlenden ChatGPT-Benutzer ein.
Diese neue Funktion wurde erstmals im Mai 2024 veröffentlicht und ist derzeit für ChatGPT Plus- und Team-Benutzer verfügbar. Enterprise- und Edu-Benutzer folgen nächste Woche. Die Veröffentlichung erfolgt zu einem Zeitpunkt, an dem OpenAI seinen KI-basierten Chatbot weiter verbessert.
Advanced Voice wird im Laufe der Woche für alle Plus- und Team-Benutzer in der ChatGPT-App eingeführt.
– OpenAI (@OpenAI) 24. September 2024
Während Sie geduldig gewartet haben, haben wir benutzerdefinierte Anweisungen, Speicher, fünf neue Stimmen und verbesserte Akzente hinzugefügt.
Es kann auch in über 50 Sprachen „Tut mir leid, dass ich zu spät bin“ sagen. pic.twitter.com/APOqqhXtDg
Obwohl das Unternehmen die Sprachfunktion bei einer Produkteinführungsveranstaltung im Mai vorstellte, musste das Unternehmen die offizielle Einführung der Funktion aus Sicherheitsgründen verschieben. Im Juni verzögerte das Unternehmen die Einführung der Funktion aufgrund möglicher Probleme, insbesondere wenn es sich bei der Anfrage um eine Stimmfälschung oder urheberrechtlich geschütztes Material handelte.
Bis Juli hatten nur wenige Nutzer des kostenpflichtigen Abonnementdienstes ChatGPT Plus das Tool genutzt. OpenAI hat seitdem Maßnahmen wie Filter eingeführt, um sicherzustellen, dass die generierte Musik oder andere urheberrechtlich geschützte Audiodaten nicht produziert werden.
OpenAI erweitert den Sprachassistenten um mehr Optionen und Funktionen
Neben der allgemeinen Verfügbarkeit hat OpenAI auch die Auswahl an Sprachoptionen für den Assistenten auf bis zu neun erweitert. Einige der Namen sind von der Natur inspiriert, wie zum Beispiel Arbor, Spruce und Maple. Diese Vielfalt hilft dem Benutzer, die Art der Stimme auszuwählen, die er bevorzugt.
Allerdings gibt es noch einige Einschränkungen. Es fehlt beispielsweise das Computersehen, das Anfang des Jahres demonstriert wurde, als Menschen über ihre Smartphone-Kameras verbale Anweisungen zu körperlichen Bewegungen wie Tanzen erhalten konnten. Einige dieser Funktionen sind in dieser Version noch nicht enthalten.
Zu den wichtigsten Prioritäten, die bei der Gestaltung des Assistenten berücksichtigt wurden, gehört die Fähigkeit des Sprachassistenten, die Sprache einiger Personen nachzuahmen. In seiner Erklärung stellte OpenAI fest, dass das System angesichts der ethischen Fragen im Zusammenhang mit dieser Technologie keine Menschen nachahmen kann, wenn es um Deepfake-Technologie und Sprachsynthese geht.
früheren Beitrag erwähnt haben sich Hacker kürzlich Zugang zum OpenAI-Pressekonto verschafft und einen Phishing-Link geteilt, der ChatGPT-Benutzern „OPENAI“-Tokens versprach. Dies ist der vierte Fall von Cyberangriffen im Zusammenhang mit dem X-Konto des Unternehmens und der fünfte Cyberangriff auf das amerikanische KI-Forschungsunternehmen seit Anfang dieses Jahres. Weitere Ziele sind der Forscher Jason Wei am 22. September, der Chefwissenschaftler Jakub Pachocki im Juni 2024 und die CTO Mira Murati im Juni 2023.
Cryptopolitan Academy: Müde von Marktschwankungen? Erfahren Sie, wie DeFi Ihnen helfen kann, ein stetiges passives Einkommen aufzubauen. Registrieren Sie sich jetzt