O OpenAI revelou que em breve as organizações podem ser obrigadas a preencher um processo de verificação de identificação para acessar determinados modelos futuros de IA. A empresa disse que deseja impedir o uso indevido da API, reduzir o uso de IA insegura e impedir o roubo de propriedade intelectual.
A empresa de inteligência artificial disse que o status de organização verificada liberada dará aos desenvolvedores uma nova maneira de desbloquear o acesso aos modelos e recursos mais avançados da plataforma OpenAI. A empresa também disse que o avanço através de camadas de uso desbloqueará limites de taxa mais altos entre os modelos.
O OpenAI propõe a verificação de identificação para a organização
O OpenAI agora adicionou a capacidade de verificar a organização pic.twitter.com/sczuhpgj90
- Jonah Manzano (@Jonah_Manzano) 13 de abril de 2025
O Openai mencionou na página de suporte do site que pode exigir que as empresas preencham um processo de verificação de identificação para acessar determinados modelos futuros de IA. A empresa observou que o processo de verificação, denominado organização verificada, será “uma nova maneira de os desenvolvedores desbloquearem o acesso aos modelos e recursos mais avançados da plataforma OpenAI”.
A empresa de tecnologia também reconheceu que a verificação exigirá uma identificação emitida pelo governo de um dos países apoiados pela API da Openai. A empresa de inteligência artificial observou que atualmente apóia adentde mais de 200 países.
O fabricante de chatgpt acrescentou que um ID pode verificar apenas uma organização a cada 90 dias e que nem todas as organizações serão elegíveis para verificação. O OpenAI pediu às empresas que verifiquem novamente em uma data posterior para ver se a verificação fica disponível para sua organização.
"O OpenAI lançou um novo status de organização verificada como uma nova maneira de os desenvolvedores desbloquearem o acesso aos modelos e recursos mais avançados da plataforma e estarem prontos para o próximo lançamento emocionante do modelo".
~ Tibor Blaho, engenheiro principal da Aiprmcorp.
A página de suporte diz: "No OpenAI, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e usada com segurança". A empresa também argumentou que uma pequena minoria de desenvolvedores usa intencionalmente as APIs do Openai, violando suas políticas de uso. O OpenAI sustentou que "estamos adicionando o processo de verificação para mitigar o uso inseguro de IA, continuando a disponibilizar modelos avançados para a comunidade mais ampla de desenvolvedores".
O Openai revelou que levará apenas alguns minutos para verificar uma organização e que a empresa não possui requisitos de gasto. A empresa de tecnologia também destacou que o avanço das camadas de uso desbloqueará limites de taxa mais altos entre os modelos.
A empresa de IA também reconheceu que a verificação desbloqueará o acesso a modelos avançados e recursos adicionais na plataforma OpenAI, que permitirão aos usuários utilizar os mais recentes avanços da IA.
O OpenAi diz que a verificação não está disponível, a empresa aconselha os usuários a continuar usando a plataforma e os modelos existentes como atualmente. A empresa também argumentou que os modelos que exigem verificação hoje podem estar disponíveis para todos os clientes no futuro, mesmo sem verificação.
O OpenAI procura aumentar a segurança e impedir o roubo de IP com a verificação do ID
A empresa pode estar pressionando para reforçar a segurança em torno de seus produtos com o novo processo de verificação à medida que se tornam mais sofisticados e capazes. A Openai emitiu vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, inclusive por grupos supostamente com sede na Coréia do Norte.
A empresa também pode estar trabalhando para impedir o roubo de IP com base em um relatório da Bloomberg no início deste ano em relação a um laboratório de IA da China. O relatório observou que o OpenAI estava investigando se um grupo vinculado à Deepseek exfiltrou grandes quantidades de dados por meio de sua APU no final de 2024, possivelmente para modelos de treinamento, que violam os termos da empresa. A empresa de tecnologia também suspendeu o acesso a seus serviços para usuários na China, Hong Kong e Macau no ano passado.
O fabricante de chatgpt também disse que já faz pouco mais de um ano desde que se tornou o primeiro laboratório de pesquisa da IA a publicar relatórios sobre suas interrupções. A empresa observou que pretende apoiar esforços mais amplos de nós e governos aliados, parceiros do setor e outras partes interessadas para impedir abusos por adversários e outros atores maliciosos.
Principais diferenças : os projetos de criptografia de ferramenta secreta usam para obter cobertura de mídia garantida