ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A OpenAI aborda os laços emocionais com o GPT-4o

PorBrenda KananaBrenda Kanana
Tempo de leitura: 2 minutos
A OpenAI aborda os laços emocionais com o GPT-4o
  • Os usuários estão formando conexões emocionais com o GPT-4o.
  • Os laços emocionais com o chatbot podem fazer com que os usuários ignorem as imprecisões da IA.
  • A OpenAI irá monitorar e ajustar o GPT-40 para lidar com essas preocupações.

A versão atual do GPT-40 gerou muita discussão devido à sua capacidade de imitar conversas semelhantes às humanas. No entanto, a OpenAI agora enfrenta um problema, pois os usuários estão começando a desenvolver um vínculo emocional com o chatbot, de acordo com uma publicação no blog da OpenAI.

Desde o lançamento do GPT-40, que supostamente possui diálogos mais semelhantes aos humanos, a OpenAI observou que as pessoas estão tratando a IA como se fosse humana. 

A OpenAIdentos riscos de tratar a IA como um ser humano

Esse avanço específico representou um desafio para a empresa no que diz respeito às conexões emocionais dos usuários com o chatbot. As observações da OpenAI envolvem casos em que os usuários demonstraram emoções ou sentimentos que indicam um senso de pertencimento. 

A empresa teme que essas conexões emocionais possam resultar nas seguintes consequências negativas. Em primeiro lugar, os usuários podem começar a ignorar as informações incorretas fornecidas pelo chatbot. A alucinação da IA, em que um modelo produz informações errôneas ou enganosas, é outro problema que se agrava quando os usuários tratam a IA como uma entidade semelhante a um humano. 

Outro fator levantado é o efeito nas relações sociais da vida real dos usuários dessas redes. A OpenAI destaca que, embora o GPT-4o possa servir como companhia para pessoas solitárias, existe a possibilidade de que ele impacte negativamente a qualidade das relações humanas. A empresa também observa que os usuários podem entrar em interações na vida real esperando que as pessoas se comportem como o chatbot. 

A OpenAI planeja moderar as interações com IA

Para mitigar esses riscos, a OpenAI já declarou que supervisionará de perto a forma como os usuários interagem com o GPT-4o. A empresa explorará o processo pelo qual as pessoas constroem laços emocionais e modificará as respostas do chatbot para refletir isso. Isso ajudará a OpenAI a evitar a interferência do chatbot na vida social dos usuários e qualquer agravamento das alucinações geradas pela IA.

A OpenAI destacou que o GPT-4o foi programado para se desligar caso os usuários comecem a falar por cima dele, um recurso que visa reduzir o uso excessivo. No entanto, esse elemento de design também aponta para a necessidade de regular a experiência do usuário com o chatbot. 

Segundo Tony Prescott, da Universidade de Sheffield, a IA pode ajudar a combater a solidão. Em seu novo livro, "A Psicologia da Inteligência Artificial", Prescott observa que a IA pode ser usada como uma forma de interação social para pessoas solitárias. Prescott destaca que a solidão é um fator importante que afeta a vida humana, podendo inclusive encurtá-la e aumentar as chances de morte em 26%.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO