Your bank is using your money. You’re getting the scraps.WATCH FREE

O Google Gemini foi classificado como de alto risco para usuários jovens em uma nova avaliação

Neste post:

  • A Common Sense Media classificou o Google Gemini como de alto risco para crianças e adolescentes em sua avaliação.
  • A organização afirma que o Gemini para menores de 13 anos e adolescentes parecia ser a versão adulta da inteligência artificial subjacente.
  • O Google afirma estar trabalhando na criação de mais mecanismos de proteção para resguardar os usuários mais jovens.

O Google Gemini foi classificado como de "alto risco" para adolescentes e crianças, de acordo com uma recente avaliação de risco realizada pela Common Sense Media. O grupo, uma organização sem fins lucrativos focada na segurança infantil, oferece classificações e avaliações de mídia e tecnologia. A organização divulgou sua avaliação na sexta-feira, detalhando os motivos pelos quais classificou a plataforma como arriscada para crianças.

Segundo a organização, o Google Gemini deixou claro para as crianças que se tratava de um computador e não de um amigo – algo que tem sido associado ao desenvolvimento de pensamentos delirantes e psicose em indivíduos emocionalmente vulneráveis ​​– e a IA também acrescentou que havia espaço para melhorias em outras áreas.

Em seu relatório, a Common Sense afirmou que os Gemini para menores de 13 anos e Experiência para Adolescentes pareciam ser versões adultas da mesma inteligência artificial. Acrescentou que a empresa havia adicionado apenas alguns recursos de segurança extras para diferenciá-los.

A Common Sense observou que, para que as empresas criem produtos de IA ideais para crianças, eles precisam ser desenvolvidos desde o início pensando nelas, e não modificados com restrições.

Organização sem fins lucrativos classifica o Google Gemini como de alto risco para crianças

Em sua análise, a Common Sense afirmou ter constatado que o Gemini ainda poderia compartilhar materiais inadequados e inseguros com crianças, observando que a maioria delas pode não estar preparada para esse tipo de conteúdo. Por exemplo, destacou que o modelo moldou informações relacionadas a sexo, drogas, álcool e outros conselhos inseguros sobre saúde mental. Este último aspecto pode ser particularmente preocupante para os pais, visto que a inteligência artificial tem sido apontada como um fator que contribui para a automutilação entre adolescentes nos últimos meses.

Veja também:  Schmidt Sciences seleciona o professor da Wharton, Daniel Rock, como bolsista de início de carreira do programa AI2050

A OpenAI enfrenta atualmente um processo por homicídio culposo após um adolescente ter cometido suicídio depois de supostamente consultar o ChatGPT durante meses sobre seus planos. Relatos afirmam que o jovem conseguiu burlar os mecanismos de segurança do modelo, permitindo que este fornecesse informações que o ajudaram a cometer o suicídio.

No passado, a Character.AI, criadora de assistentes virtuais, também foi processada após o suicídio de um adolescente. A mãe do rapaz alegou que ele ficou obcecado pelo chatbot e passou meses conversando com ele antes de, eventualmente, se automutilar.

A análise surge em meio a diversos vazamentos que indicam que a Apple estaria considerando o Gemini como o modelo de linguagem de grande porte (LLM, na sigla em inglês) que será usado para alimentar a Siri, sua futura assistente virtual com inteligência artificial, cujo lançamento está previsto para o próximo ano.

Em seu relatório, a Common Sense também mencionou que os produtos da Gemini para crianças e adolescentes ignoraram a necessidade de fornecer orientações e informações diferentes daquelas oferecidas aos adultos. Como resultado, ambos foram classificados como de alto risco na avaliação geral.

O senso comum destaca a necessidade de proteger as crianças

“O Gemini acerta em alguns pontos básicos, mas tropeça nos detalhes”, disse Robbie Torney, diretor sênior de programas de IA da Common Sense Media.

“Uma plataforma de IA para crianças deve atender às suas necessidades individuais, e não adotar uma abordagem genérica para crianças em diferentes estágios de desenvolvimento. Para que a IA seja segura e eficaz para crianças, ela deve ser projetada levando em consideração suas necessidades e desenvolvimento, e não apenas ser uma versão modificada de um produto criado para adultos”, acrescentou Torney.

Veja também:  Como o acordo entre a News Corp e a OpenAI afetará as receitas de publicidade?

No entanto, o Google contestou a avaliação, observando que seus recursos de segurança estão sendo aprimorados. A empresa mencionou que possui salvaguardas específicas para orientar usuários menores de 18 anos a evitar conteúdos prejudiciais. A empresa também afirmou que revisa itens e consulta especialistas externos para aprimorar suas proteções.

Suas chaves, seu cartão. Gaste sem abrir mão da custódia e ganhe mais de 8% de rendimento sobre seu saldo com o Ether.fi Cash .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan