Un informe reciente revela una brecha de seguridad en OpenAI, donde un hacker accedió a los sistemas de mensajería interna el año pasado y robó detalles de diseño sobre las tecnologías de inteligencia artificial de la compañía. El New York Times informó que esta filtración ocurrió en un foro en línea donde los empleados de OpenAI compartían información sobre su progreso actual.
Lea también: El aparente "suicidio" de un robot surcoreano ahora está bajo investigación
Se informó que la filtración ocurrió en un foro en línea donde empleados de OpenAI compartieron actualizaciones recientes. Según dos fuentes anónimas familiarizadas con el incidente dent el hacker no obtuvo acceso a los sistemas centrales mediante los cuales OpenAI desarrolla y almacena su IA, como ChatGPT. Según el New York Times, la compañía no informó públicamente de la filtración, ya que no se vio comprometida ninguna información crítica y no existía ninguna amenaza para la seguridad nacional.
OpenAI mantiene las medidas de seguridad tras la brecha
Los ejecutivos de OpenAI compartieron esta información con los empleados durante la reunión general de abril del año pasado y con la junta directiva. A pesar de la filtración, la empresa no consideró la participación de las fuerzas del orden federales, atribuyendo eldent a una persona sin afiliación a ningún estado extranjero.
Lea también: Un estudio demuestra que ChatGPT supera a los humanos al contar chistes
Aunque eldent de violación de datos no afectó los sistemas centrales de la organización que se consideran los más sensibles, según el informe, eldent señaló el hecho de que es necesario tener medidas adecuadas para proteger las tecnologías de IA avanzadas.
La batalla legal entre NYT y OpenAI da un giro inesperado
En un desarrollo relacionado, la batalla legal entre The New York Times y OpenAI recibió recientemente una importante actualización. OpenAI presentó documentos instando al tribunal a ordenar a la destacada editorial que demuestre la originalidad de sus artículos proporcionando materiales fuente detallados de cada obra protegida por derechos de autor. Esta solicitud ha complicado aún más el caso, dado que se basa en acusaciones de uso no autorizado de contenido del NYT para el entrenamiento de modelos de IA.
“El Times alega que […] ‘invierte una enorme cantidad de tiempo, . . . experiencia y talento’, incluso a través de ‘investigaciones profundas —que generalmente toman meses y a veces años para informar y producir— en áreas complejas e importantes de interés público’.“
Los abogados de OpenAI
La solicitud exige que The New York Times presente toda la documentación relacionada con el proceso de autoría, a saber, notas del periodista, memorandos de entrevistas y registros de fuentes. Los abogados de OpenAI también señalaron que, según el NYT, la empresa invierte importantes recursos en producir periodismo de primer nivel. Por lo tanto, los métodos de creación, el tiempo, el trabajo y la inversión son la clave del asunto. Por lo tanto, afirman que OpenAI tiene derecho a inspeccionar estos aspectos durante el proceso de descubrimiento.
Lea también: Shanghái acogerá la Conferencia Mundial de IA de 2024
El New York Times respondió a OpenAI mediante un aviso legal emitido el 3 de julio para oponerse a la exigencia de material fuente relacionado con eltrac. El equipo legal del NYT afirmó que la solicitud de OpenAI es novedosa y basa su argumento en una interpretación errónea de los derechos de autor. Argumentaron que el proceso de creación de material protegido por derechos de autor es irrelevante para el problema central del caso.
Se espera que la administración Biden anuncie próximamente nuevas normas para evitar el uso indebido de la tecnología de IA estadounidense por parte de países preocupantes, como China y Rusia. Estas son las medidas iniciales propuestas para contener las sofisticadas aplicaciones de IA actuales, como ChatGPT.
Informe Cryptopolitan de Brenda Kanana

