OpenAI relanza el modo de voz avanzado de ChatGPT
ChatGPT recupera su modo de voz avanzado y Scarlett Johansson ya no tiene nada de lo que preocuparse
Tras lo ocurrido con Scarlett Johansson el pasado mes de mayo, OpenAI ha empezado a implementar la nueva generación de sus avanzados modelos de voz.
OpenAI relanza el modo de voz avanzado de ChatGPT para algunos de los usuarios de la suscripción Plus de la herramienta, y es que el panorama tecnológico se encuentra en constante cambio, y una de las figuras más destacadas en este ámbito es ChatGPT.
La plataforma ha anunciado a través de X (antes Twitter) esta nueva actualización que ofrece «conversaciones más naturales y en tiempo real. Además, permite interrumpir en cualquier momento y siente tus emociones y responde ante ellas».
We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) July 30, 2024
ChatGPT trae de vuelta una función que ya existía pero que necesitaba una pausa
Tras lo ocurrido con Scarlett Johansson el pasado mes de mayo, OpenAI, la empresa responsable de esta popular herramienta de inteligencia artificial, ha empezado a implementar la nueva generación de sus avanzados modelos de voz para, como ya hemos mencionado, algunos grupos de usuarios del servicio de suscripción ChatGPT Plus. El objetivo es que estén disponibles para todos los usuarios de pago para este otoño, aunque tienen previsto compartir un informe detallado sobre las capacidades, limitaciones y evaluaciones de seguridad de GPT-4o a principios de agosto.
«Desde que hicimos la primera ‘demo’ del modo de voz avanzado, hemos estado trabajando para reforzar la seguridad y la calidad de las conversaciones de voz mientras nos preparamos para llevar esta tecnología de vanguardia a millones de personas», afirman desde ChatGPT.
Con la voz de la actriz eliminada por completo de sus sistemas, la aplicación ha introducido ahora cuatro voces nuevas: Juniper, Breeze, Cove y Ember. Estas voces se han creado utilizando grabaciones de actores y actrices que han accedido a participar, recibiendo una retribución.
«Para proteger la privacidad de las personas, hemos entrenado al modelo para que solo hable en las cuatro voces preestablecidas, y hemos creado sistemas para bloquear las salidas que difieran de esas voces. También hemos implementado barreras para bloquear solicitudes de contenidos violentos o protegidos por derechos de autor», explican a través de la red social X.