A segurança será um dos principais temas da agenda na Cúpula de IA de Seul

- A Coreia do Sul e o Reino Unido estão coorganizando uma cúpula sobre segurança de IA em Seul, nos dias 21 e 22 de maio.
- O primeiro-ministro britânico e odent sul-coreano também priorizaram a inovação e a inclusão.
- A conferência é uma continuação da conferência britânica sobre segurança da IA, realizada em Bletchley Park em novembro.
Os governos da Coreia do Sul e do Reino Unido vão instar as empresas de tecnologia a abordarem a supervisão da segurança da inteligência artificial na cúpula internacional de IA desta semana.
Este encontro dá seguimento à primeira cúpula global sobre segurança da IA, realizada no ano passado em Bletchley Park, na Grã-Bretanha, onde diversos governos expressaram suas preocupações sobre os riscos da IA. Empresas de IA também estiveram presentes, visto que a tecnologia em que trabalham apresenta esses riscos.
Em meio às inúmeras tentativas internacionais de criar mecanismos de proteção para a tecnologia em rápido desenvolvimento, que tem o potencial de revolucionar muitas facetas da sociedade, a cúpula de Seul reacendeu as preocupações sobre os riscos emergentes para a vida cotidiana.
“Embora tenham sido feitos esforços positivos para moldar a governança global da IA, ainda existem lacunas significativas.”
A cúpula do Reino Unido, em novembro, reuniu pesquisadores, autoridades governamentais, executivos de tecnologia e representantes de organizações da sociedade civil, muitos dos quais com opiniões divergentes sobre inteligência artificial. As reuniões ocorreram a portas fechadas em Bletchley. Além de políticos, incluindo o primeiro-ministro britânico Rishi Sunak, os CEOs da OpenAI, Sam Altman, e da Tesla, Elon Musk, também estiveram presentes, juntamente com muitos outros.
A segurança será uma prioridade na Cúpula de IA
A segurança será novamente uma das principais prioridades na Cúpula de IA de Seul, que começa na terça-feira. Os governos do Reino Unido e da Coreia do Sul coorganizam o encontro, que acontece nos dias 21 e 22 de maio.
Empresas de IA de destaque, como Microsoft, Anthropic, Google DeepMind, OpenAI (criadora do ChatGPT) e Mistral (uma startup francesa de IA), devem enviar representantes.
O primeiro-ministro britânico, Rishi Sunak, e o presidente sul-coreano,dent Suk Yeol, também escreveram um artigo conjunto, publicado no INews na segunda-feira. Reconhecendo o potencial dessa tecnologia, eles expressaram sua vontade de garantir a segurança, afirmando:
“Juntos, estamos determinados a aproveitar o potencial desta tecnologia para transformar o mundo para melhor.”
Eles também enfatizaram que, assim como as novas tecnologias trazem novos riscos, o mesmo acontece com a IA. Apontaram o uso indevido da IA por agentes mal-intencionados que deliberadamente desejam utilizá-la para fins ilícitos.
Recentemente, a OpenAI dissolveu sua equipe de segurança, chamada de equipe de Superalinhamento, após a saída de seu cofundador, Ilya Sutskever, e de outros funcionários importantes. A notícia veio da empresa líder mundial em IA poucos dias antes da cúpula de Seul, cujo foco é mitigar os riscos da IA.
Leia também: Cooperação internacional é incentivada para abordar os riscos da IA na Cúpula de Bletchley Park
Em outro desenvolvimento, a Anthropic divulgou hoje seu relatório sobre políticas de escalonamento responsável, que, segundo a empresa, apresentou bons resultados. No entanto, não podemos confirmar esses resultados. Embora não estejamos em posição de comentar nenhum desses desenvolvimentos, eles oferecem alguns pontos para reflexão.
A inovação deve continuar
Após a ascensão meteórica do ChatGPT à popularidade logo após seu lançamento em 2022, empresas de tecnologia do mundo todo começaram a investir bilhões de dólares na construção de seus modelos generativos de IA. Sunak e Yeol mencionaram a rápida inovação, com novos modelos de IA sendo lançados diariamente. Eles disseram:
“O governo pode fomentar essa inovação investindo bilhões, impulsionando pesquisas de ponta em nossas universidades de classe mundial e garantindo que não haja regulamentação excessiva das startups que podem gerar a próxima grande ideia.”
Os defensores dos modelos de IA generativa têm elogiado a tecnologia como um avanço que irá melhorar a vida das pessoas e os negócios em todo o mundo, uma vez que ela pode produzir texto, fotografias, música e até vídeo em resposta a estímulos simples.
Alguns desses produtos que ganharam atenção pública possuem vieses intrínsecos, o que é motivo de preocupação.
Leia também: Trabalhar com IA é essencial, dizem especialistas em IA no Fórum Global de Liderança da FIDIC.
E não são apenas esses; a tecnologia que funciona por trás desses produtos, chamada de modelos de linguagem de grande escala (LLMs, na sigla em inglês), também se tornou a tecnologia base para muitas soluções em diferentes setores. De veículos autônomos a soluções médicas, muitas dependem de LLMs de IA generativa para funcionar.
Ainda existem vozes preocupantes
Inúmeras pessoas têm exigido diretrizes internacionais para controlar o avanço e a aplicação da IA. Por exemplo, um movimento com sede em Nova York chamado Ban the Scan exige a suspensão do uso do reconhecimento facial nos níveis governamental e privado.
Eles argumentam que essas tecnologias interferem na liberdade individual e apresentam uma alta taxa de falsos positivos. Uma página datronFrontier Foundation afirma:
“O reconhecimento facial representa uma ameaça à privacidade, à justiça racial, à liberdade de expressão e à segurança da informação. O reconhecimento facial em todas as suas formas, incluindo a digitalização facial e tracem tempo real, representa uma ameaça às liberdades civis e à privacidade individual.”
Eles não são os únicos. Defensores dos direitos humanos, governos e críticos têm alertado que a IA pode ser usada de diversas maneiras. Por exemplo, atores não estatais podem utilizá-la para influenciar eleitores com notícias falsas ou as chamadas imagens e vídeos "deepfake" de autoridades eleitas. Outra preocupação crescente são os relatos de estados que apoiam grupos extremistas para defender seus próprios interesses.
“Também daremos os próximos passos para definir os padrões globais que evitarão uma corrida para o fundo do poço.”
O artigo em dupla mencionou a declaração acima e enfatizou que discutir normas internacionais para IA em um fórum mais aberto seria útil. Ao mesmo tempo, algumas organizações de direitos humanos sul-coreanas criticaram os organizadores por não convidarem um número suficiente de países em desenvolvimento.
A França também sediará esta semana a conferência “Viva Technology”, com o apoio da LVMH, o maior grupo de luxo do mundo. Ao longo do último ano, a França tem buscadotracstartups de IA para se posicionar como campeã europeia em IA.
Reportagem Cryptopolitan por Aamir Sheikh
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















