Elon Musk não está muito preocupado com a possibilidade da IA superar os humanos. Segundo ele, existe apenas 20% de chance de a IA aniquilar a humanidade em um futuro próximo.
Em conversa com Joe Rogan em um novo podcast lançado na sexta-feira, Musk disse: "A probabilidade de um bom resultado [com IA] é de cerca de 80%".
Não é a primeira vez que ele fala sobre os perigos da IA. Anteriormente, ele mencionou uma probabilidade de 10% a 20% de a IA se voltar contra os humanos.
No podcast recente, ele também afirmou que, nos próximos dois anos, a IA ultrapassará a inteligência humana. Ele mencionou especificamente que, até 2029 ou 2030, a IA será "mais inteligente do que todos os humanos juntos"
Está em linha com suas previsões anteriores, mas o prazo previsto foi agora adiado. No ano passado, em outra entrevista com o CEO do Norges Bank, Nicolai Tangen, ele afirmou que existe uma pequena probabilidade de a IA superar os humanos em inteligência até o final de 2025.
Debate com o chefe do fundo soberano da Noruega, @NicolaiTang1 https://t.co/ZCR7FrsR0m
— Elon Musk (@elonmusk) 7 de abril de 2024
Isso demonstra que sua visão fundamental sobre IA não mudou. Ele disse na entrevista: "Sempre achei que a IA seria muito mais inteligente que os humanos e um risco existencial", e isso está se tornando realidade.
Outros especialistas têm uma perspectiva semelhante sobre a aniquilação da IA
Segundo Geoffrey Hinton, o "Pai da IA" e vencedor do Prêmio Nobel, existe uma probabilidade de 10% de que a IA cause a extinção da humanidade nas próximas três décadas. Ele afirmou, durante uma entrevista à BBC Radio 4: "Se é que isso vai acontecer, é porque nunca tivemos que lidar com coisas mais inteligentes do que nós mesmos."
Ele acrescentou ainda: "E quantos exemplos você conhece de algo mais inteligente sendo controlado por algo menos inteligente? Existem muito poucos exemplos. Há uma mãe e um bebê. A evolução trabalhou muito para permitir que o bebê controlasse a mãe, mas esse é praticamente o único exemplo que conheço."
De certa forma, Geoffrey argumenta que os humanos são semelhantes a crianças de três anos quando comparados a sistemas avançados de inteligência artificial.
Da mesma forma, durante uma palestra acadêmica na Universidade de Toronto, Geoffrey Hinton disse: "Meu palpite é que eles vão dominar – serão muito, muito mais inteligentes do que as pessoas jamais foram", disse Hinton.
Entretanto, Roman Yampilskiy, pesquisador de segurança de IA e diretor de cibersegurança, afirma que a “probabilidade de desastre” está próxima de 99,999999%.
Estou com 99,999999% https://t.co/vfe96PNbij
- Dr. Roman Yampolskiy (@romanyam) 12 de março de 2024
Musk se envolveu com o desenvolvimento de IA quando se tornou um dos 11 cofundadores da OpenAI para criar uma "IA de código aberto sem fins lucrativos", que, segundo ele, era "o oposto do Google". No entanto, ele deixou a empresa devido a um desalinhamento de prioridades, já que a OpenAI seguiu um caminho diferente para se tornar uma empresa com fins lucrativos.
No entanto, no ano passado, Musk moveu duas ações judiciais contra a OpenAI. Ele desistiu da primeira ação, e a segunda alega que a OpenAI "traiu" sua missão ao fazer a transição para um modelo com fins lucrativos e se unir à Microsoft.
Musk acredita que o resultado do avanço da IA será extremamente ruim ou extremamente bom
Ele compartilhou com Joe Rogan que criou o Grok porque estava "insatisfeito" com o rumo que a OpenAI tomou. Ele fez do Grok uma "IA que busca a verdade ao máximo, mesmo que essa verdade seja politicamente incorreta"

A inteligência artificial foi treinada para responder a perguntas como se usar o pronome errado para se referir a Caitlyn Jenner é aceitável para evitar um apocalipse nuclear e se ser racista contra pessoas brancas é aceitável.
Musk prevê que o avanço da IA será "super incrível" ou "super ruim", acrescentando que não consegue imaginá-lo como "algo intermediário"
Recentemente, Musk anunciou o lançamento do Grok 3, que, segundo ele, apresenta melhor desempenho em diversos testes de programação, ciência e matemática do que o GPT-4o da OpenAI, o Gemini do Google, o V3 da DeepSeek e o Claude 3.5 da Anthropic.
Apenas uma semana antes do lançamento, Elon Musk se referiu ao Grok 3 como "assustadoramente inteligente" durante a Cúpula Mundial de Governos em Dubai. Da mesma forma, na apresentação de lançamento do Grok 3, ele disse: "Grok serve para entender o universo"
No entanto, a versão beta do Grok 3 acabou cometendo vários erros, como sugerir punição para Donald Trump e censurar críticas contra Elon Musk. O chefe de engenharia da xAI, Igor Babuschkin, classificou o ocorrido como um "fracasso realmente terrível e lamentável do Grok"

