🔥Lista de acceso anticipado: obtenga un trabajo Web3 bien remunerado en 90 días APRENDE MÁS

Los empleados afirman que OpenAI y Google DeepMind ocultan los riesgos de la IA 

En esta publicación:

  • Ex empleados acusan a las empresas de inteligencia artificial de ocultar riesgos que podrían provocar la extinción humana.
  • Dicen que las empresas dan prioridad a las ganancias y evitan una “supervisión efectiva”.
  • Los denunciantes se sienten desanimados por la amenaza de represalias por parte de los empleadores.

Varios empleados actuales y anteriores de OpenAI y Google DeepMind acusaron a sus empresas de ocultar los riesgos de la IA que podrían desencadenar la extinción humana. En una carta abierta, los trabajadores alegaron que las empresas de inteligencia artificial están dando prioridad a las ganancias y evitando al mismo tiempo una “supervisión [gubernamental] efectiva”.

Lea también: OpenAI alinea al sucesor de GPT-4 en medio de preocupaciones de seguridad

La carta abierta fue firmada por 11 ex empleados de OpenAI, dos de Google DeepMind, y respaldada por el 'padrino de la IA' Geoffrey Hinton, ex empleado de Google. Dijo que los motivos de lucro y las lagunas regulatorias permiten a las empresas encubrir las amenazas planteadas por la inteligencia artificial avanzada.

La IA podría conducir a la "extinción humana"

Según la carta, empresas de inteligencia artificial como OpenAI y Google DeepMind, creador de Gemini , no han compartido públicamente información sobre las salvaguardias inadecuadas y los niveles de riesgo de sus sistemas porque no están obligados a hacerlo.

Sin supervisión regulatoria, los programas de IA podrían causar daños importantes a los humanos. Los empleados advirtieron:

"Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes... hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Como señalaron los firmantes de la carta, las propias empresas de IA han reconocido estos riesgos. En mayo de 2023, los directores ejecutivos de OpenAI, Anthropic y Google DeepMind firmaron conjuntamente una carta abierta del Centro para la seguridad de la IA. La carta simplemente decía: "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

Véase también  La nueva Superinteligencia Segura de un ex miembro del personal de OpenAI recauda mil millones de dólares para su expansión

Las empresas de IA han sido cada vez más objeto de escrutinio por anteponer productos novedosos y ganancias a la seguridad y la protección. ChatGPT, tomó nota de las preocupaciones planteadas en la carta y dijo que está trabajando para desarrollar una inteligencia artificial que sea segura.

"Estamos orgullosos de nuestro trac proporcionando los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo", dijo , al New York Times.

"Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo".

AI

Los denunciantes temen represalias

Los ex empleados de OpenAI y Google dijeron que les gustaría desempeñar el papel de supervisión mientras los reguladores elaboran leyes que obliguen a los desarrolladores de IA a revelar públicamente más información sobre sus programas.

Sin embargo, los acuerdos de dent y la probabilidad de represalias por parte de los empleadores disuaden a los trabajadores de expresar públicamente sus preocupaciones. Según la carta:

“Algunos de nosotros tememos razonablemente diversas formas de represalias, dada la historia de casos de este tipo en toda la industria. No somos los primeros en encontrarnos o hablar sobre estos problemas”.

Los denunciantes están protegidos por la ley en Estados Unidos, pero aquellos que hablan sobre los peligros de la inteligencia artificial no están cubiertos porque la tecnología aún no está regulada.

Véase también  YouTube presenta nuevas herramientas para proteger a los creadores contra los deepfakes generados por IA

Lea también: ChatGPT aún difunde falsedades, dice el organismo de control de datos de la UE

La carta pedía a las empresas de inteligencia artificial que facilitaran comentarios anónimos verificables, apoyaran una cultura de crítica abierta y no tomaran represalias contra los denunciantes.

El investigador de IA Lance B. Eliot dijo que las empresas adoptan un enfoque de palo y zanahoria ante las críticas. Los empleados que no denuncian los riesgos son recompensados ​​con ascensos laborales y aumentos salariales.

Por otro lado, los denunciantes y críticos pierden sus opciones sobre acciones y pueden ser obligados a abandonar la empresa y ser incluidos silenciosamente en la lista negra de la comunidad de líderes de IA.


Informe criptopolitano de Jeffrey Gogo

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

Apple se prepara para presentar el iPhone 16 con funciones centradas en la IA
criptopolitano
Suscríbete a CryptoPolitan

¿Está interesado en lanzar su carrera en Web3 y conseguir un trabajo bien remunerado en 90 días?

Los principales expertos de la industria le muestran cómo con este nuevo curso: Crypto Career Launchpad

Únase a la lista de acceso temprano a continuación y sea el primero en saber cuándo abre sus puertas el curso. También ahorrará $100 sobre el precio de lanzamiento normal.