Operai ha revelado que las organizaciones pronto pueden estar obligadas a completar un proceso de verificación de identificación para acceder a ciertos modelos de IA futuros. La firma dijo que quiere evitar el mal uso de la API, frenar el uso inseguro de la IA y disuadir el robo de propiedad intelectual.
La firma de inteligencia artificial dijo que el estado de organización verificado publicado brindará a los desarrolladores una nueva forma de desbloquear el acceso a los modelos y capacidades más avanzados en la plataforma OpenAI. La firma también dijo que avanzar a través de niveles de uso desbloqueará límites de mayor tasa entre los modelos.
Openai propone la verificación de identificación para la organización
Operai ahora agregó la capacidad de verificar la organización pic.twitter.com/sczuhpgj90
- Jonah Manzano (@jonah_manzano) 13 de abril de 2025
Operai mencionó en la página de soporte de su sitio web que puede requerir que las empresas completen un proceso de verificación de identificación para acceder a ciertos modelos de IA futuros. La firma señaló que el proceso de verificación, llamado Organización Verificada, será "una nueva forma para que los desarrolladores desbloqueen el acceso a los modelos y capacidades más avanzados en la plataforma OpenAI".
La compañía de tecnología también reconoció que la verificación requerirá una identificación emitida por el gobierno de uno de los países respaldados por la API de OpenAI. La firma de inteligencia artificial señaló que actualmente respalda ladentde más de 200 países.
El fabricante de chatgpt agregó que una identificación solo puede verificar una organización cada 90 días y que no todas las organizaciones serán elegibles para la verificación. Operai instó a las empresas a verificar nuevamente en una fecha posterior para ver si la verificación está disponible para su organización.
"Openai lanzó un nuevo estado de organización verificado como una nueva forma para que los desarrolladores desbloqueen el acceso a los modelos y capacidades más avanzados en la plataforma y estén listos para el próximo lanzamiento de modelo emocionante".
~ Tibor Blaho, ingeniero principal en AIPRMCorp.
La página de soporte dice: "En OpenAI, asumimos nuestra responsabilidad en serio de garantizar que la IA sea ampliamente accesible y se use de manera segura". La firma también argumentó que una pequeña minoría de desarrolladores usa intencionalmente las API de OpenAI en violación de sus políticas de uso. Operai sostuvo que "estamos agregando el proceso de verificación para mitigar el uso inseguro de la IA mientras continuamos haciendo que los modelos avanzados estén disponibles para la comunidad de desarrolladores más amplia".
Operai reveló que solo tomará unos minutos verificar una organización y que la empresa no tiene ningún requisito de gasto. La firma tecnológica también destacó que avanzar a través de niveles de uso desbloqueará límites de mayor velocidad entre los modelos.
La firma de IA también reconoció que la verificación desbloqueará el acceso a modelos avanzados y capacidades adicionales en la plataforma Operai, lo que permitirá a los usuarios utilizar los últimos avances de IA.
En caso de que Openai dice que la verificación no está disponible, la empresa aconseja a los usuarios que continúen utilizando la plataforma y los modelos existentes como lo hacen actualmente. La compañía también argumentó que los modelos que requieren verificación hoy podrían estar disponibles para todos los clientes en el futuro, incluso sin verificación.
Operai busca aumentar la seguridad y evitar el robo de IP con la verificación de ID
La compañía podría estar presionando para reforzar la seguridad en torno a sus productos con el nuevo proceso de verificación a medida que se vuelven más sofisticados y capaces. Operai ha emitido varios informes sobre sus esfuerzos para detectar y mitigar el uso malicioso de sus modelos, incluso por grupos supuestamente con sede en Corea del Norte.
La firma también puede estar trabajando para disuadir el robo de IP basado en un informe de Bloomberg a principios de este año con respecto a un laboratorio de IA con sede en China. El informe señaló que OpenAi estaba investigando si un grupo vinculado con Deepseek exfiltró grandes cantidades de datos a través de su APU a fines de 2024, posiblemente para modelos de capacitación, lo que viola los términos de la empresa. La compañía de tecnología también suspendió el acceso a sus servicios para usuarios en China, Hong Kong y Macao el año pasado.
El fabricante de chatgpt también dijo que ha sido un poco más de un año desde que se convirtió en el primer laboratorio de investigación de IA en publicar informes sobre sus interrupciones. La firma señaló que su objetivo es apoyar esfuerzos más amplios de gobiernos estadounidenses y aliados, socios de la industria y otras partes interesadas para evitar el abuso por parte de adversarios y otros actores maliciosos.
Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar