ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Las aplicaciones de IA contarán con "etiquetas de seguridad" que resaltarán los riesgos y las pruebas

PorAamir SheikhAamir Sheikh
3 minutos de lectura
Las aplicaciones de IA contarán con "etiquetas de seguridad" que resaltarán los riesgos y las pruebas
  • Los desarrolladores de IA tendrán que incluir etiquetas que mencionen riesgos y problemas de seguridad en sus aplicaciones.
  • La medida ayudará a los usuarios a comprender la tecnología de inteligencia artificial y mantener la privacidad.
  • Una guía sobre el anonimato de datos estará disponible para los países de la región de la ASEAN.

En un futuro próximo, los usuarios de aplicaciones de IA generativa podrían encontrar etiquetas que describan claramente cómo utilizar la IA, sus riesgos asociados y su proceso de prueba. Siguiendo las nuevas directrices, las etiquetas serán obligatorias para facilitar la comprensión de la tecnología al público en general.

Lea también: La Unión Europea (UE) lidera la regulación de la IA

La ministra de Comunicaciones e Información de Singapur, Josephine Teo, afirmó que la nueva medida busca defiTeo hizo estas declaraciones durante la conferencia sobre protección de datos personales celebrada el 15 de julio. informe del Strait Times, 

Los desarrolladores de aplicaciones de IA deben ser transparentes sobre sus innovaciones

Al igual que ocurre con las etiquetas de seguridad para medicamentos o electrodomésticos, los desarrolladores de aplicaciones de IA generativa deben ser claros al informar a los usuarios sobre el uso y desarrollo de los modelos de IA. La Sra. Teo, quien también es Ministra a cargo de la iniciativa Nación Inteligente y Ciberseguridad, afirmó:

“Recomendaremos que los desarrolladores e implementadores sean transparentes con los usuarios al brindarles información sobre cómo funcionan los modelos y las aplicaciones de IA generativa”

Al explicar las próximas normas, el ministro explicó que son similares a cuando un usuario abre una caja de medicamentos sin receta. Encuentra una hoja que explica claramente cómo debe usarse el medicamento y los posibles efectos secundarios

Teo afirmó que este nivel de transparencia es necesario para los sistemas de IA basados ​​en una sola inteligencia artificial generativa. El nuevo conjunto de normas defilos criterios de seguridad que deben cumplirse antes de que un modelo de IA se ponga a disposición del público. 

Guía sobre anonimización de datos que se publicará en 2025

La inteligencia artificial generativa es un tipo de IA capaz de generar nuevos textos e imágenes, y no es tan predecible como la IA tradicional. Según las nuevas directrices, los creadores deberán mencionar los riesgos de difundir mentiras, comentarios hostiles y narrativas sesgadas en el contenido.

Teo afirmó que los electrodomésticos vienen con etiquetas que indican claramente que se están probando para garantizar su seguridad; de lo contrario, el cliente no sabrá si el electrodoméstico es seguro. Lo mismo se aplicará a las aplicaciones de IA. La Autoridad de Desarrollo de Medios de Infocomunicación (IMDA) de Singapur iniciará una consulta con la industria sobre las nuevas normas. Sin embargo, Teo no especificó una fecha para la entrada en vigor de las directrices.

IMDA también ha publicado una guía sobre cuestiones relacionadas con la privacidad en la tecnología, que atenderá la creciente demanda de datos para entrenar modelos de IA y al mismo tiempo protegerá la privacidad de los usuarios, dijo Teo.

Lea también: La mesa redonda demócrata recibirá a Mark Cuban y Brad Garlinghouse para discutir las regulaciones de las criptomonedas.

La subdirectora ejecutiva de IMDA, Denise Wong, afirmó: «Mantener la seguridad de los datos en la IA generativa es un reto mayor para la industria». Expuso su punto de vista en una mesa redonda independiente sobre IA y privacidad de datos durante el evento. Representantes de diferentes empresas tecnológicas participaron en la mesa, incluyendo a OpenAI, creador de ChatGPT, y la consultora Accenture. 

La protección de datos debe implementarse en todas las etapas del desarrollo e implementación de la IA, afirmó Jessica Gan Lee, directora legal de privacidad de OpenAI. Añadió que los modelos de IA deben entrenarse con diversos conjuntos de datos de "todos los rincones del mundo". Lee enfatizó que el entrenamiento de la IA debe incluir diversas culturas, idiomas y fuentes, además de buscar maneras de limitar el procesamiento de datos personales.

Teo dijo que a principios de 2025 se introducirá una guía sobre anonimización de datos para las empresas que operan en la ASEAN. La guía será el resultado de una reunión de febrero entre funcionarios regionales que exploraron formas de crear un ecosistema digital global seguro.

Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO