Durante o último mês, usuários do ChatGPT notaram uma mudança peculiar no comportamento do chatbot de IA, descrevendo-o como "preguiçoso". Essa mudança é marcada por atrasos nos tempos de resposta e uma tendência a fornecer soluções mais curtas ou incompletas, levando a ampla especulação sobre os motivos por trás desse comportamento inesperado. Enquanto a comunidade de IA tenta desvendar o mistério, a palavra-chave "ChatGPT" tornou-se sinônimo de uma onda de perguntas sobre a recente relutância da IA em executar certas tarefas.
Anúncio do GPT-4 Turbo
Relatos sobre a "preguiça" do ChatGPT começaram a circular há cerca de dois meses, com usuários expressando insatisfação com o desempenho do ChatGPT Plus, o plano pago baseado no modelo de linguagem GPT-4. Notavelmente, os usuários se viam obrigados a dividir as entradas em partes menores, enfrentando frustração devido ao limite de 50 mensagens a cada três horas.
A revelação veio da OpenAI, a organização por trás do ChatGPT, no início de dezembro de 2023, reconhecendo a aparente desaceleração da IA. No X (antigo Twitter), a OpenAI confirmou que o GPT-4, o modelo que alimenta o ChatGPT, apresentou uma queda notável na atividade, atribuindo-a à imprevisibilidade inerente a grandes modelos de linguagem. Curiosamente, o ChatGPT podia ser reativado com palavras de incentivo, dicas ou um simples pedido para "respirar fundo"
O efeito Turbo do GPT-4
A possível razão para o comportamento lento do ChatGPT pode estar traca dois desenvolvimentos significativos que coincidiram com os relatos iniciais. A OpenAI apresentou os "GPTs" personalizados durante sua primeira conferência para desenvolvedores "DevDay", em 6 de novembro de 2023. Esses GPTs permitem que usuários pagantes criem mini chatbots especializados dentro do ChatGPT, treinados com informações específicas para respostas personalizadas.
Simultaneamente, a OpenAI apresentou o GPT-4 Turbo, um modelo mais avançado que sucede o GPT-4. Equipado com dados de treinamento mais abrangentes até abril de 2023, preços mais baixos e recursos aprimorados, como visão computacional e conversão de texto em fala, o GPT-4 Turbo pode impulsionar aplicativos de terceiros por meio de APIs. Embora não tenha sido explicitamente anunciada uma atualização do ChatGPT para o modelo Turbo, especula-se que a transição para um modelo mais recente possa explicar os atrasos e as respostas abaixo do ideal.
A influência sazonal humana no ChatGPT
Uma teoria alternativa surge quando o desenvolvedor Simon Willison sugere que as respostas do ChatGPT podem ser influenciadas pelo registro de data e hora oculto das consultas. Segundo Willison, a IA pode interpretar novembro e dezembro como meses em que as pessoas tendem a desacelerar, coincidindo com as férias de inverno e o período de festas de fim de ano. O cientista de dados Rob Lynch conduziu uma análise estatística sobre o projeto X, revelando que as datas das consultas podem de fato impactar os resultados, com respostas a consultas marcadas para maio sendo mais longas do que as de dezembro.
Apesar da hipótese das férias de inverno estar ganhando trac, ela enfrenta críticas, com o pesquisador Ian Arawjo questionando a reprodutibilidade dos resultados e destacando a pequena escala da comparação entre consultas rotuladas para maio e dezembro.
À medida que o mistério por trás do ChatGPT se aprofunda, a comunidade de IA permanece dividida sobre a verdadeira causa. Seria resultado da transição para o GPT-4 Turbo, influenciado por padrões sazonais humanos ou uma combinação de ambos? A falta de atualizações da OpenAI levanta ainda mais questões, levando os usuários a especular sobre a dinâmica interna da organização. Enquanto os usuários do ChatGPT se adaptam às mudanças, a pergunta principal permanece: trata-se de uma falha temporária, uma decisão deliberada ou um sinal de uma mudança mais profunda no cenário da IA?
O que você acha do comportamento recente do ChatGPT? Acredita que seja um problema técnico, um reflexo de padrões sazonais humanos ou algo completamente diferente?

