O apelo de Elon Musk para interromper todos os grandes experimentos de IA causou grande impacto na indústria de tecnologia, com muitas figuras influentes apoiando a medida. À medida que os riscos associados ao desenvolvimento descontrolado de IA se tornam cada vez mais evidentes, a comunidade cripto também está atenta ao alerta.
Elon Musk assinou uma carta aberta pedindo a interrupção do treinamento de novos modelos de IA mais poderosos que o GPT-4.
-Aram Mughalyan.eth (@AramMughalyan) 29 de março de 2023
Há uma crescente percepção de que o rápido desenvolvimento da IA pode representar riscos profundos para a humanidade.
É hora de frear e garantir que entendamos como podemos controlá-la. pic.twitter.com/mR4YOGVaz7
Com muitos projetos de blockchain e criptomoedas supostamente dependendo fortemente de algoritmos de IA e aprendizado de máquina, o impacto potencial da experimentação não regulamentada nessa área pode ter consequências catastróficas, segundo especialistas.
Steve Wozniak, cofundador da Apple, juntou-se a Musk na assinatura da carta aberta, ressaltando a urgência da situação. Segundo fontes confiáveis, à medida que as criptomoedas se entrelaçam cada vez mais com a inteligência artificial, a integração adequada com governos e órgãos reguladores tornou-se fundamental.
Sem a devida supervisão, os riscos decorrentes da experimentação descontrolada podem ser desastrosos para o setor ainda em desenvolvimento. Por isso, muitos especialistas defendem a suspensão de todos os projetos de IA em larga escala até que essas questões sejam resolvidas.
Alerta sobre os perigos dos sistemas de IA poderosos e seus impactos nas criptomoedas
A carta insta as empresas de tecnologia a não desenvolverem sistemas de Inteligência Artificial (IA) que ultrapassem as capacidades do GPT-4, que é a tecnologia de ponta mais recente em grandes sistemas de processamento de linguagem.
Especificamente, a carta se refere ao GPT-4 como a “tecnologia de ponta mais recente em grandes sistemas de processamento de linguagem”. De acordo com um artigo publicado na revista Fortune, a eficácia dos modelos de inteligência artificial é proporcional tanto ao tamanho dos modelos quanto ao número de chips de computador especializados necessários para seu treinamento.
Consequentemente, a carta visa alertar que quaisquer avanços adicionais em inteligência artificial podem resultar em máquinas fora do controle humano. Segundo a carta, o setor empresarial de tecnologia encontra-se atualmente numa encruzilhada, tendo de escolher entre priorizar a segurança ou continuar a expandir os limites do desenvolvimento da inteligência artificial.
Tem-se receio de que, se as empresas prosseguirem com o desenvolvimento de sistemas de inteligência artificial que ultrapassem as capacidades do GPT-4, isso poderá resultar em consequências desastrosas, como a perda de empregos, invasões de privacidade e até mesmo riscos existenciais para a humanidade. Consequentemente, a carta incentiva as empresas de tecnologia a refletirem sobre os potenciais resultados de suas atividades e a adotarem uma abordagem mais responsável no desenvolvimento da inteligência artificial.
Em resumo, a carta insta as empresas de tecnologia a terem cautela e a desistirem de desenvolver sistemas de inteligência artificial mais avançados do que aqueles oferecidos por empresas específicas.
criptomoedas