Cualquiera que busque asesoramiento o consejo personal de ChatGPT debe ser cauteloso, advierte el director ejecutivo de OpenAI, Sam Altman, porque las conversaciones con la IA no tienen las mismas garantías de privacidad que aquellas con un médico o abogado real.
Altman planteó el problema en un episodio reciente del podcast del comediante Theo Von. Señaló que, a medida que la IA se adentra en áreas más sensibles, aún no existe una protección legal para lo que comparten los usuarios.
“La gente habla de los problemas más personales de su vida con ChatGPT”, dijo Altman. Señaló que muchos, especialmente los usuarios más jóvenes, tratan al chatbot como un terapeuta o un coach de vida, preguntando "¿qué debo hacer?" cuando enfrentan problemas de pareja u otros asuntos privados.
En cambio, cuando alguien confía en un terapeuta, abogado o médico colegiado, la ley protege esos detalles bajo el privilegio médico-paciente o abogado-cliente. Sin embargo, con una IA, dichadentlegal aún no existe.
Esa brecha podría convertirse en un verdadero problema en los tribunales, advirtió Altman, ya que OpenAI se vería obligada a entregar las transcripciones de los chats si se lo ordenan. "Creo que eso es un desastre. Creo que deberíamos tener el mismo concepto de privacidad para las conversaciones con IA que con un terapeuta o lo que sea, y nadie tuvo que pensar en eso hace ni siquiera un año", añadió.
La falta de privacidad puede ser una barrera para el uso generalizado de ChatGPT
OpenAI considera esta falta de privacidad como una posible barrera para un uso más amplio. Además de los enormes volúmenes de datos en línea necesarios para entrenar sus modelos, la empresa ahora se enfrenta a demandas judiciales para entregar los chats de los usuarios.
En un caso de gran repercusión, OpenAI se enfrenta a una importante orden judicial como parte de su demanda contra The New York Times. El fallo obligaría a la empresa a conservar los registros de cientos de millones de usuarios de ChatGPT en todo el mundo, excluyendo únicamente a los de la versión empresarial.
OpenAI apeló la decisión, calificándola de “extralimitación” y argumentando que si los tribunales pueden anular sus propias políticas de privacidad, las futuras demandas de acceso a la ley o a la investigación podrían multiplicarse.
Las empresas tecnológicas actuales reciben con frecuencia citaciones judiciales para obtener datos de usuarios en investigaciones penales. Pero a medida que las leyes evolucionan, también lo hace la preocupación por lo que las huellas digitales podrían revelar. Cuando la Corte Suprema anuló el caso Roe contra Wade en junio de 2022, muchos usuarios optaron por aplicaciones más seguras o por Apple Health, que cifra sus registros.
Altman también interrogó a Von sobre su uso de ChatGPT después de que el anfitrión admitiera que le preocupaba compartir información personal. "Creo que tiene sentido... querer realmente tener claridad sobre la privacidad antes de usar ChatGPT con frecuencia, al igual que la claridad legal", dijo Altman, subrayando que hasta que la IA enjde la mismadentque los profesionales tradicionales, los usuarios podrían pensárselo dos veces antes de abrirse.

