A Microsoft proibiu que as forças policiais dos Estados Unidos obtenham serviços de IA generativa executados no Azure OpenAI Service. Essa nova abordagem, abordada nos termos de serviço atualizados na quarta-feira, visa responder ao crescente dilema ético que a IA enfrenta na aplicação da lei.
Atualização de política destaca preocupações éticas
Os termos revisados estabelecem expressamente que tais integrações não podem ser usadas “por ou para” agências policiais nos Estados Unidos. Essa restrição abrange também os modelos de análise de texto e fala, reforçando da Microsoft no uso responsável da IA. Como regulamentação adicional, foi introduzida uma cláusula separada para proibir especificamente o uso da tecnologia de reconhecimento facial em tempo real em câmeras de dispositivos móveis, incluindo câmeras corporais e câmeras veiculares, em ambientes não controlados.
A Microsoft proíbe departamentos de polícia dos EUA de usarem ferramenta de IA empresarial https://t.co/OxrFO5scO9
— TechCrunch (@TechCrunch) 2 de maio de 2024
O gatilho para esses movimentos pode serdentnos recentes avanços da indústria tecnológica. A Axon, conhecida empresa de tecnologia especializada em aplicações militares e policiais, acaba de anunciar um produto que utiliza o modelo Verbalizer da OpenAI com o algoritmo de geração de texto GPT-4 para resumir o áudio captado por câmeras corporais. A geração de informações falsas e seu viés de preconceito racial nos dados de treinamento foram apontados como pontos que imediatamente suscitaram preocupações de alguns críticos.
Implicações e margem para interpretação
Embora a política atualizada represente a posição definitiva da Microsoft, ela ainda permite interpretações. A proibição do Azure OpenAI Service aplica-se apenas à polícia dos EUA, enquanto a implementação internacional continua. Além disso, as limitações ao uso da tecnologia de reconhecimento facial aplicam-se exclusivamente ao seu uso por unidades policiais dos EUA, excluindo câmeras fixas em ambientes controlados.
Essa metodologia equilibrada está em consonância com a ampla estratégia de IA da Microsoft para segurança pública e defesa. Enquanto isso, apesar das proibições de certos usos, a cooperação entre a OpenAI e agências governamentais, entre as quais o Pentágono é um excelente exemplo, tem surgido gradualmente. Essas parcerias indicam uma mudança de postura tanto da OpenAI quanto da Microsoft, que busca aplicações de IA em tecnologias militares.
Envolvimento governamental e dinâmica da indústria
A adoção do da Microsoft por agências governamentais acelerou-se, uma vez que o Azure Government inclui ferramentas adicionais de conformidade e gestão para uso pelas forças de segurança. Candice Ling, Vice-Presidente Sênior dent Microsoft Federal, será responsável por obter mais aprovações do Departamento de Defesa para o serviço Azure OpenAI, demonstrando assim a utilidade da plataforma em missões urgentes.
A dinâmica da ética e da regulamentação da IA cria a necessidade de as empresas de tecnologia tomarem medidas ponderadas com antecedência. Ao decidir não usar IA na aplicação da lei, a Microsoft demonstra uma tendência mais ampla do setor em aumentar a responsabilidade e a transparência na implementação da IA. Durante os debates sobre a regulamentação da IA, os fornecedores de tecnologia, os legisladores e os grupos ativistas terão que trabalhar juntos para resolver as questões emergentes de forma ética.
A decisão da Microsoft de impedir que departamentos de polícia nos EUA utilizem o Azure OpenAI Service em cenários específicos demonstra a abordagem deliberada e focada que a empresa está adotando para lidar com as preocupações éticas relacionadas à implementação de IA. De fato, a alteração revela a sinceridade dos legisladores e as complexidades envolvidas nesse equilíbrio. Considerando a evolução das discussões sobre ética em IA, as partes interessadas devem sempre participar de um diálogo construtivo para promover o crescimento e a implementação responsáveis da IA.

