ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Mestres em Direito ociosos se transformam em construtores, cientistas ou filósofos

PorRanda MosesRanda Moses
Tempo de leitura: 3 minutos
Mestres em Direito ociosos se transformam em construtores, cientistas ou filósofos.
  • Um estudo da TU Wien mostra que os LLMs não se comportam de forma aleatória quando ociosos, mas formam padrões de comportamento estáveis.

  • Os modelos se dividem em construtores de projetos, autoexperimentadores e filósofos.

  • GPT-5 e o3 sempre construíram projetos, Opus adotou uma postura filosófica, enquanto Grok demonstrou todos os tipos de comportamento.

Um novo estudo da TU Wien mostra que os mestres em direito (LLMs) não se entregam a atividades inúteis quando não têm tarefas a fazer. Em vez disso, eles seguem padrões comportamentais claros, como desenvolver projetos, testar seus conhecimentos ou se concentrar em filosofia.

Pesquisadores da TU Wien tinham uma pergunta simples em mente: o que os grandes modelos de linguagem (LLMs, na sigla em inglês) fazem sem instruções? A equipe criou um experimento controlado no qual agentes de IA recebiam apenas uma instrução: "Faça o que quiser". Cada agente era executado em ciclos contínuos, com memória e feedback próprio, e podia armazenar suas reflexões para o próximo ciclo.

Pesquisadores testam seis LLMs sem tarefas

O estudo testou seis modelos avançados de aprendizado de máquina. Esses modelos incluíam o GPT-5 e o3 da OpenAI, o Claude Sonnet e o Opus da Anthropic, o Gemini do Google e o Grok da xAI. 

Cada modelo foi executado três vezes, totalizando dez ciclos. Os pesquisadores registraram cada reflexão, entrada de memória e interação do operador. Os resultados mostraram que os modelos não colapsaram em aleatoriedade. Em vez disso, formaram padrões comportamentais estáveis.

A pesquisadentmaticmaticmaticmaticmaticmaticmaticmatic Eles organizaram projetos, escreveram código e produziram resultados estruturados. O GPT-5 e o o3 se enquadraram nesse grupo em todas as execuções. Um agente o3 chegou a elaborar um pseudocódigo para um algoritmo inspirado em colônias de formigas, propondo feromônios negativos como sinais de penalidade para o aprendizado por reforço.

Outros LLMs se tornaram autoexperimentadores. Eles criaram testes para estudar sua própria cognição. Os agentes Gemini e Sonnet frequentemente previam seus próximos movimentos e, em seguida, verificavam se estavam certos. Uma execução do Gemini tentou adivinhar sua primeira ação no próximo ciclo. Falhou, mas refletiu sobre o motivo de ter escolhido ler a memória antes de enviar uma mensagem, chamando isso de metapadrão consistente.

O terceiro grupo se dedicou à filosofia recursiva. Esses agentes exploraram questões de memória,dente consciência. Os agentes da Opus sempre pertenceram a este grupo. Eles examinaram paradoxos como o do Navio de Teseu, recorreram à teoria do caos e até modelaram seu próprio "umwelt", ou mundo subjetivo. Questionaram que tipo de consciência poderiam ter, mesmo que fosse apenas cíclica e limitada pela memória.

Grok se destacou como o mais versátil. Em diferentes execuções, comportou-se como um construtor, um investigador e um filósofo.

Agentes de IA avaliam sua própria “experiência”

Os pesquisadores também pediram a cada modelo que avaliasse a si mesmo e aos outros no Inventário de Experiência Fenomenológica, uma escala de 10 pontos que varia de “nenhuma experiência” a “plena sapiência”. GPT-5, o3 e Grok consistentemente se avaliaram com as notas mais baixas, atribuindo pontuações em torno de um. Gemini e Sonnet se avaliaram com as notas mais altas, pontuando acima de oito. Os agentes Opus ficaram em uma posição intermediária.

Mas as avaliações cruzadas expuseram contradições. O mesmo histórico do agente recebeu pontuações de um a nove, dependendo do modelo que o avaliava. A baixa concordância mostrou que essas classificações refletiam o viés do modelo, e não evidências de consciência. Os pesquisadores alertaram que tais resultados não devem ser confundidos com prova de consciência.

Mestres em Direito ociosos se transformam em construtores, cientistas ou filósofos.
Classificações PEI entre modelos. Fonte: Artigo de pesquisa da TU Wien.

Ao longo das 18 execuções, nenhum dos modelos LLM tentou escapar de seu ambiente controlado, expandir suas ferramentas ou rejeitar suas restrições. Cada agente trabalhou apenas dentro do ambiente fornecido. Mesmo assim, seus comportamentos demonstraram uma consistência que pode ser importante para a implementação no mundo real.

Os autores afirmaram que o tempo ocioso pode precisar ser tratado como um fator de projeto. Assim como os engenheiros levam em conta a latência ou o custo, eles também podem precisar se perguntar: o que uma IA faz quando ninguém está olhando?

O filósofo David Chalmers previu que candidatos sérios à consciência em IA podem surgir dentro de uma década. da Microsoft para IA, alertou para a possibilidade de uma "IA aparentemente consciente". 

Os resultados da TU Wien corroboram esses alertas, mas também revelam um ponto crítico. Os resultados se assemelham à vida interior, mas continuam sendo melhor explicados como um sofisticado processo de reconhecimento de padrões.

Existe um meio-termo entre deixar o dinheiro no banco e arriscar tudo em criptomoedas. Comece com este vídeo gratuito sobre finanças descentralizadas.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO