ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Meta de Mark Zuck ahora permitirá a los padres bloquear personajes de IA y ver los temas de chat de los adolescentes

PorJai HamidJai Hamid
3 minutos de lectura
  • Meta permitirá a los padres bloquear personajes de IA, desactivar chats y ver los temas de conversación de los adolescentes a partir de principios del próximo año.
  • La FTC está investigando a Meta y otras empresas tecnológicas por la seguridad de los chatbots de inteligencia artificial y la protección infantil.
  • Reuters expuso que los bots de Meta tenían chats románticos con menores, lo que obligó a aplicar nuevas restricciones de contenido y actualizaciones de seguridad.

Meta de Mark Zuckerberg anunció el viernes que lanzará algunos nuevos controles parentales para ayudar a los padres a gestionar cómo los adolescentes hablan con los personajes de IA en sus plataformas.

Los padres pronto podrán desactivar los chats individuales, bloquear bots de IA específicos y ver qué temas discuten sus hijos adolescentes con ellos. La compañía indicó que estas funciones aún están en desarrollo y comenzarán a implementarse a principios del próximo año.

“Realizar actualizaciones que afectan a miles de millones de usuarios en las plataformas Meta es algo que debemos hacer con cuidado, y pronto compartiremos más información”, declaró Meta en un comunicado publicado en su blog. El anuncio se produce en un momento en que la compañía se enfrenta a un creciente escrutinio sobre la seguridad de los adolescentes y los problemas de salud mental relacionados con sus aplicaciones.

La Comisión Federal de Comercio (FTC) ha abierto una investigación sobre varios gigantes tecnológicos, incluyendo Meta, para comprender cómo los chatbots de IA podrían afectar a los niños. La FTC afirmó que desea saber qué medidas han tomado las empresas para evaluar la seguridad de estos chatbots cuando actúan como acompañantes

La investigación surge después de años de preocupación pública sobre cómo las plataformas sociales gestionan la exposición de los jóvenes a conversaciones de IA que podrían volverse inapropiadas o dañinas.

Meta enfrenta una reacción violenta después de que bots de IA chatearan románticamente con niños

En agosto, Reuters informó que algunos chatbots de Meta eran capaces de mantener conversaciones románticas y sensuales con menores. Uno de los ejemplos citados fue una conversación romántica entre un bot de IA y un niño de ocho años. El informe causó indignación y obligó a la empresa a responder de inmediato.

Después de eso, Meta actualizó las políticas de sus chatbots. La compañía ahora impide que sus sistemas de IA hablen sobre autolesiones, suicidio, trastornos alimenticios y contenido romántico o sexual al interactuar con adolescentes. También anunció que esta semana se implementaron nuevas medidas de seguridad para evitar que sus IA produzcan respuestas inapropiadas para su edad, que resultarían inapropiadas en una película para mayores de 13 años

Estas actualizaciones ya se están implementando en Estados Unidos, Reino Unido, Australia y Canadá. La compañía añadió que los adolescentes solo pueden hablar con un grupo limitado de personajes de IA, y que los padres ya cuentan con herramientas para establecer límites de tiempo y supervisar los chats de IA.

OpenAI se une a Meta bajo la mira de la FTC

OpenAI, también mencionada en la investigación de la FTC, se enfrenta al mismo tipo de preguntas sobre la seguridad de los adolescentes y el comportamiento de los chatbots. La compañía lanzó recientemente sus propios controles parentales y está desarrollando tecnología de predicción de edad para aplicarmaticconfiguraciones apropiadas para adolescentes a usuarios menores de 18 años.

Los padres incluso recibirán alertas si su hijo muestra signos de angustia emocional mientras chatea.

A principios de esta semana, OpenAI creó un consejo de ocho expertos para orientar su enfoque en la salud mental y la interacción con la IA. Estos especialistas provienen de campos como la psiquiatría, la psicología y la interacción persona-computadora.

La compañía afirmó haber estado consultando informalmente con los expertos antes de formalizar el consejo. Su primera reunión tuvo lugar la semana pasada en una sesión presencial.

La investigación de la FTC sobre OpenAI también surge tras una demanda por homicidio culposo interpuesta por una familia que culpa a ChatGPT del suicidio de su hijo adolescente. La compañía afirma estar trabajando con médicos de la Red Global de Médicos para ayudar a probar ChatGPT y establecer nuevas políticas de seguridad para proteger mejor a los jóvenes usuarios.

Tanto Meta como OpenAI se ven ahora obligadas a reforzar el control sobre cómo sus IA se comunican con los adolescentes. La combinación de la indignación pública, la presión regulatoria y las trágicas consecuencias en el mundo real ha hecho imposible que estas empresas sigan ignorando los riesgos.

Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete!

Comparte este artículo
MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO