Google, OpenAI e Meta concordaram em interromper o desenvolvimento de qualquer modelo de IA caso não consigam conter os riscos. As empresas assinaram os "Compromissos de Segurança da IA" na terça-feira, durante a Cúpula de IA de Seul, organizada pelo Reino Unido e pela Coreia do Sul.
Leia também: Reino Unido e República da Coreia colaboram em cúpula de IA
É uma estreia mundial ter tantas empresas líderes em IA de tantas partes do globo concordando com os mesmos compromissos em relação à segurança da IA.
— Primeiro-ministro do Reino Unido, Rishi Sunak
16 empresas de IA concordam com compromissos de segurança em IA
Segundo o relatório , um total de 16 empresas de IA aderiram ao compromisso de segurança, abrangendo os EUA, a China e o Oriente Médio.
Microsoft, Amazon, Anthropic, Samsungtrone a desenvolvedora chinesa Zhipu.ai também estão entre as empresas que concordaram com os padrões de segurança.
Leia também: Alibaba e Tencent investem US$ 342 milhões na startup de IA Zhipu
O compromisso de segurança da IA exige que todas as empresas publiquem seus respectivos marcos de segurança antes de uma próxima Cúpula de Ação em IA na França, no início de 2025. O marco explicará como as empresas determinam os riscos de seus modelos e quais riscos são considerados “intoleráveis”
Empresas de IA vão abandonar modelos de IA arriscados
Nos casos mais extremos, as empresas "não desenvolverão nem implementarão um modelo ou sistema" se os riscos não puderem ser controlados, de acordo com o relatório.
O verdadeiro potencial da IA só será liberado se formos capazes de lidar com os riscos. É responsabilidade de todos nós garantir que a IA seja desenvolvida com segurança.
— Michelle Donelan, Secretária de Tecnologia do Reino Unido
Em julho de 2023, o governo dos EUA fez um esforço semelhante para abordar os riscos e benefícios da IA. Odent Joe Biden reuniu-se com representantes do Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection para discutir medidas de segurança de IA que garantam a segurança de seus produtos de IA antes do lançamento.
O debate sobre a segurança da IA se intensifica em relação à OpenAI
O debate sobre a segurança da IA tem se intensificado nos últimos meses, particularmente em torno das IAGs (Inteligências Gerais Artificiales), que visam imitar a inteligência geral humana.
Uma das empresas envolvidas nessa discussão foi a OpenAI na semana passada, após a renúncia do cofundador, Ilya Sutskever, e do executivo sênior, Jan Leike. A dupla era responsável pela equipe de Superalinhamento da OpenAI, criada para evitar que seus modelos apresentassem comportamentos descontrolados.
Leia também: Jan Leike, outro executivo da OpenAI, deixa o cargo.
Em sua publicação, Leike afirmou que “nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação a produtos sofisticados” na empresa.
Já passou da hora de levarmos muito a sério as implicações da Inteligência Artificial Geral (IAG).
— Jan Leike (@janleike) 17 de maio de 2024
Devemos priorizar a preparação para elas da melhor forma possível.
Só assim poderemos garantir que a IAG beneficie toda a humanidade.
Leike acrescentou que "a OpenAI deve se tornar uma empresa de IAG (Inteligência Artificial Geral) que prioriza a segurança" e que devemos priorizar a preparação para ela da melhor forma possível, para garantir que a IAG beneficie toda a humanidade.
Reportagem Cryptopolitan por Ibiam Wayas

