A OpenAI reformulou suas medidas de segurança para se proteger contra ameaças externas. A empresa de inteligência artificial, avaliada em US$ 300 bilhões e conhecida mundialmente por produtos como o ChatGPT, implementou uma ampla reformulação de segurança que inclui controles de acesso mais rigorosos, verificação de antecedentes mais criteriosa dos funcionários e medidas de segurança físicas.
Embora a empresa tenha negado a alegação de que suas ações sejam uma resposta à concorrência, a OpenAI reforçou seus procedimentos de segurança após um incidente dent janeiro envolvendo a startup chinesa DeepSeek .
OpenAI reformula segurança
Nos últimos meses, a OpenAI aumentoumaticsuas medidas de segurança interna para proteger sua propriedade intelectual contra espionagem estrangeira, principalmente da China. A empresa começou a implementar protocolos mais rigorosos no ano passado, mas esses esforços ganharam nova urgência após o lançamento do DeepSeek em janeiro.
A OpenAI suspeita que a empresa rival tenha usado "destilação" para desenvolver e lançar um produto concorrente. Destilação é uma técnica que envolve treinar um novo modelo para imitar o comportamento de outro.
“O episódio levou a OpenAI a ser muito mais rigorosa”, disse uma fonte próxima à equipe de segurança. Desde então, a empresa tem expandido agressivamente suas operações de cibersegurança e reforçado o controle sobre o acesso a pesquisas sensíveis, dados de modelos e infraestrutura.
Até o momento, a DeepSeek não respondeu às alegações.
Odent com o DeepSeek também desencadeou uma ampla repressão interna na OpenAI. Novas políticas, conhecidas internamente como "proteção da informação", são agora utilizadas para determinar como os dados sensíveis são acessados e compartilhados.
Apenas um pequeno círculo de funcionários tem acesso a projetos de pesquisa de ponta, e aqueles envolvidos em certos desenvolvimentos devem confirmar que outras pessoas com quem interagem também fazem parte do mesmo grupo
Essa abordagem cautelosa foi implementada durante o desenvolvimento do modelo de próxima geração da OpenAI, internamente chamado de "Strawberry". Os funcionários foram instruídos a não discutir o projeto em espaços de escritório abertos, a menos que tivessem certeza de que seus colegas estavam oficialmente autorizados a participar.
Esse sigilo causou alguns atritos internos, com um funcionário descrevendo-o como "muito rígido", afirmando: "ou você tinha tudo ou não tinha nada"
Em nível de sistema, a OpenAI agora armazena grande parte de sua tecnologia proprietária em ambientes isolados e offline. Essa infraestrutura isolada da internet separa os sistemas críticos de redes mais amplas e da internet pública, reduzindo o risco de infiltração remota.
A segurança física também foi reforçada, com o acesso biométrico por impressão digital obrigatório em determinadas salas do escritório da empresa em São Francisco.
Para evitar ainda mais o vazamento dos parâmetros essenciais que regem a forma como os modelos da OpenAI respondem às solicitações do usuário, a empresa implementou uma política rigorosa de "negação de saída por padrão". Isso significa que os sistemas são bloqueados de se conectar à internet, a menos que haja autorização expressa.
A liderança em IA tornou-se um campo de batalha entre os EUA e a China
Existe uma competição implacável entre os EUA e a China pela liderança em tecnologias emergentes, particularmente em inteligência artificial.
Washington impôs uma série de controles de exportação destinados a impedir que Pequim adquira semicondutores avançados e tecnologias relacionadas. Ao mesmo tempo, agências de inteligência americanas alertaram que agentes estrangeiros intensificaram seus esforços para roubar dados sensíveis de empresas de tecnologia americanas.
A escalada das ameaças de espionagem levou várias grandes empresas do Vale do Silício a adotarem uma triagem mais rigorosa de novos funcionários, e a OpenAI não é exceção. Empresas de IA e tecnologia começaram a avaliar os riscos de ameaças internas com mais seriedade desde 2023.
Em outubro do ano passado, a OpenAI contratou Dane Stuckey como seu novo diretor de segurança da informação. Stuckey, que anteriormente ocupava o mesmo cargo na Palantir , traz uma abordagem focada em segurança nacional para a estratégia de defesa da organização.
Stuckey trabalha em estreita colaboração com Matt Knight, vice-dent de produtos de segurança da OpenAI, que atualmente lidera os esforços para usar os grandes modelos de linguagem da própria empresa como ferramentas de defesa contra ameaças cibernéticas.
Além disso, a OpenAI adicionou o general aposentado do Exército dos EUA, Paul Nakasone, ao seu conselho administrativo no ano passado. Nakasone foi o antigo chefe do Comando Cibernético dos EUA e da Agência de Segurança Nacional (NSA). Ele traz para a equipe executiva da OpenAI um profundo conhecimento de ameaças à segurança cibernética e estratégias de defesa.
Apesar da seriedade dessas mudanças, a OpenAI afirmou que a reformulação da segurança não é uma resposta direta a nenhumdentespecífico.
Um porta-voz da empresa disse ao Financial Times que as atualizações fazem parte dos investimentos da empresa em privacidade e segurança, com o objetivo de liderar o setor.
O foco crescente na espionagem estrangeira, particularmente da China, tem gerado preocupações sobre o fomento de tendências xenófobas no setor. Diversos especialistas e observadores expressaram receio de que as abrangentes políticas de segurança possam, involuntariamente, alienar funcionários de ascendência asiática ou levar a uma vigilância indevida baseada na nacionalidade, em vez de indicadores reais de ameaça.

