OpenAI está implementando su muy esperada función de asistente de voz, conocida como “modo de voz avanzado”, para todos los usuarios pagos de ChatGPT.
Lanzada por primera vez en mayo de 2024, esta nueva función está actualmente disponible para los usuarios de ChatGPT Plus y Team, y los usuarios Enterprise y Edu lo seguirán la próxima semana. El lanzamiento se produce mientras OpenAI continúa mejorando su chatbot basado en IA.
Advanced Voice se implementará para todos los usuarios Plus y Team en la aplicación ChatGPT a lo largo de la semana.
— OpenAI (@OpenAI) 24 de septiembre de 2024
Mientras esperaba pacientemente, agregamos instrucciones personalizadas, memoria, cinco voces nuevas y acentos mejorados.
También puede decir "Perdón por llegar tarde" en más de 50 idiomas. pic.twitter.com/APOqqhXtDg
Aunque la compañía presentó la función de voz en un evento de lanzamiento de producto en mayo, tuvo que retrasar el lanzamiento oficial de la función debido a problemas de seguridad. En junio, la compañía retrasó la función debido a posibles problemas, especialmente si la solicitud era una suplantación de voz o algún material protegido por derechos de autor.
En julio, sólo unos pocos usuarios del servicio de suscripción paga ChatGPT Plus habían utilizado la herramienta. Desde entonces, OpenAI ha implementado medidas como filtros para garantizar que la música generada o cualquier otro audio protegido por derechos de autor no se produzca.
OpenAI mejora el asistente de voz con más opciones y funciones
Además de la disponibilidad general, OpenAI también ha ampliado la gama de opciones de voz para el asistente hasta nueve. Algunos de los nombres están inspirados en la naturaleza, como Arbor, Spruce y Maple. Esta variedad ayuda al usuario a seleccionar el tipo de voz que prefiere utilizar.
Sin embargo, todavía existen algunas limitaciones. Por ejemplo, carece de la visión por computadora que se demostró a principios de este año cuando las personas pudieron obtener instrucciones verbales sobre movimientos físicos, como bailar, a través de las cámaras de sus teléfonos inteligentes. Algunas de estas funciones aún no están incluidas en esta versión.
Entre las prioridades clave que se han tenido en cuenta durante el diseño del asistente está la capacidad del asistente de voz para imitar el habla de algunas personas. En su declaración , OpenAI ha señalado que el sistema no puede imitar a los seres humanos en lo que respecta a la tecnología deepfake y la síntesis de voz, dadas las cuestiones éticas que rodean a dicha tecnología.
Como señalamos en nuestra publicación anterior, los piratas informáticos obtuvieron recientemente acceso a la cuenta de prensa de OpenAI y compartieron un enlace de phishing que prometía tokens "OPENAI" a los usuarios de ChatGPT. Este es el cuarto caso de ciberataque vinculado a la cuenta X de la empresa y el quinto ciberataque dirigido a la empresa estadounidense de investigación de IA desde principios de este año. Otros objetivos incluyen al investigador Jason Wei el 22 de septiembre, el científico jefe Jakub Pachocki en junio de 2024 y la directora de tecnología Mira Murati en junio de 2023.
Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información