China realiza primeiras prisões em ataque de ransomware com auxílio do ChatGPT

- A China realizou as primeiras prisões relacionadas ao uso do ChatGPT em ataques de ransomware, refletindo preocupações com crimes cometidos por inteligência artificial.
- O caso destaca a postura restritiva da China em relação à IA estrangeira, como a ChatGPT, em meio à corrida mais ampla pela inteligência artificial.
- A inteligência artificial generativa está se espalhando rapidamente, levantando questões legais sobre propriedade intelectual e uso indevido em todo o mundo.
Uma empresadentidentificada em Hangzhou, na China, foi recentemente vítima de um ataque de ransomware perpetrado usando o ChatGPT, o que levou às primeiras prisões no país envolvendo o chatbot de IA.
As autoridades chinesas revelaram que quatro cibercriminosos foram detidos no final do mês passado – dois em Pequim e dois na Mongólia Interior. Os suspeitos confessaram ter utilizado o ChatGPT para otimizar códigos de ransomware, realizar varreduras de rede, infiltrar-se em sistemas, implantar malware e extorquir dinheiro.
O ataque em si resultou no bloqueio das redes da empresa por um ransomware, com os criminosos exigindo o pagamento de 20.000 unidades da criptomoeda Tether para restaurar o acesso.
Uso de ransomware em ascensão
O ransomware tornou-se rapidamente uma das ameaças cibernéticas mais graves enfrentadas por governos, empresas e indivíduos em todo o mundo. O software malicioso criptografa arquivos e sistemas, tornando-os inacessíveis até que o resgate exigido seja pago.
Os prejuízos causados por ransomware ultrapassaram os US$ 20 bilhões estimados globalmente em 2021. Os ataques aumentaram 13% naquele ano somente na China, onde os cibercriminosos levaram mais de US$ 1,6 bilhão em pagamentos extorquidos.
As prisões marcam a primeira vez que o ChatGPT é implicado em um caso de ransomware chinês. No entanto, é provável que o próprio chatbot não tenha participado diretamente do ataque.
Em vez disso, os acusados admitiram ter usado os recursos de linguagem natural do ChatGPT para otimizar o código do malware. A natureza conversacional da IA facilita o aprimoramento de programas de ransomware, fornecendo feedback e sugestões.
Acesso ao ChatGPT limitado na China
Embora seja imensamente popular em todo o mundo, o ChatGPT enfrenta restrições na China. A OpenAI, sua desenvolvedora, bloqueou o acesso ao chatbot a partir de endereços IP da China continental.
Alguns usuários contornam as limitações usando VPNs registradas fora da China. No entanto, os riscos legais para as empresas que fornecem esses serviços não são claros.
As autoridades alertaram que o ChatGPT poderia potencialmente "cometer crimes e espalhar boatos" se o acesso se tornar generalizado. Mas o interesse na IA permanece alto, com empresas de tecnologia correndo para desenvolver concorrentes ao produto inovador da OpenAI.
A IA generativa também possibilita deepfakes convincentes, que a polícia chinesa enfrentou neste verão em uma operação contra fraudes de empréstimo. Com os riscos da tecnologiadent, órgãos reguladores em todo o mundo estão avaliando a melhor forma de lidar com a situação.
Preocupações em relação a malware escrito por IA
O ChatGPT ganhou fama por seu tom coloquial e respostas eloquentes e semelhantes às humanas sobre a maioria dos tópicos. Mas suas habilidades linguísticas avançadas também o tornam perigosamente eficaz para usos maliciosos, como a otimização de malware.
Pesquisadores de cibersegurança revelaram a facilidade com que o ChatGPT gera páginas de phishing falsas, códigos maliciosos e outras ameaças. Com comandos simples, a IA produz ransomware sofisticado, projetado para evitar a detecção.
E chatbots como o ChatGPT nunca se esquecem do que aprenderam. O conhecimento acumulado aprimora ainda mais suas habilidades em programar malware, invadir sistemas e enganar alvos.
A natureza generativa da IA acarreta riscos mais amplos.
Além das vulnerabilidades de software, os chatbots de IA também criam riscos relacionados à desinformação. Sua escrita convincente, semelhante à humana, pode inundar redes sociais e sites com material falso que parece crível.
A IA generativa também permite a criação de conteúdo de áudio/vídeo deepfake e vozes clonadas para fins de fraude. Golpes de falsificação de identidade e mídias falsas com celebridades representam grandes ameaças à medida que a tecnologia avança.
Além disso, persistem questões legais e éticas relacionadas aos conjuntos de dados para treinamento de IA e à propriedade intelectual. Sistemas como o ChatGPT ingerem vastos acervos de livros, artigos, músicas, imagens e outros conteúdos protegidos por direitos autorais sem consentimento.
À medida que as capacidades da IA generativa crescem exponencialmente, seu potencial para causar danos em mãos erradas também aumenta. No entanto, uma regulamentação cuidadosa e a vigilância em cibersegurança podem ajudar a mitigar as ameaças emergentes.
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















