AI 의 인기 물결은 좋은 의도를 가진 사람과 더 사악한 의도를 가진 사람 모두를 휩쓸었습니다. 보안 전문가들은 이러한 모델을 사용하는 악성 텍스트 생성 또는 '해킹봇'이 이제 위협 행위자 사이에서 유명하다고 지적하며 경종을 울립니다. 구독 기반 서비스에서 턴키 서비스 수준에 도달했습니다.
AI 도구를 활용하는 사이버 범죄자
한편, 사이버 보안 전문가는 시스템을 더 잘 보호할 수 있는 AI 지원 도구의 잠재력을 빠르게 깨달았습니다. 위협 행위자들도 이러한 기술을 활용하여 공격 대상이 남긴 보안 허점을 활용하려는 열망을 보여주었습니다. 지난 몇 년 동안 악의적인 행위자가 사용하는 AI 애플리케이션의 수가 기하급수적으로 증가했으며, 이로 인해 AI 관련 위협을 차단하기 위한 충분한 접근 방식에 보안 팀의 관심이 집중되었습니다.
한편, 영국의 사이버 보안 전문가들은 AI를 미지의 바다와 끊임없이 변화하는 특성을 수반하는 새로운 위험으로 지적했습니다. NCSC는 2024년 1분기가 가장 큰 해가 될 것이며 2022년과 2023년의 기록을 성공적으로 넘어설 것이라고 예측합니다. 영리한 범죄자들도 마찬가지로 소셜 엔지니어링을 위한 언어 모델을 사용하여 유명인을 피싱 사기를 통해 비디오 또는 오디오 설정에 배치하도록 요구했습니다. 또는 음성인식 장치. dent 인 Vascut Jakkal이 RSA Conference 2024에 참석했습니다. 문제는 이러한 도구의 성능 저하가 아니라 비밀번호 크래킹에 대한 가용성이 점점 더 광범위해지고 있다는 것입니다. 이는 보안 성장과 10배 관련이 있습니다 dent ity 관련 공격.
일부 전문가들은 챗봇이 악성 코드를 적극적으로 개발하기 위해 고유한 문구를 사용한다고 결론지었습니다. 실제로 ChatGPT 및 Gemini와 같이 공개적으로 사용 가능한 서비스는 악의적인 목적으로 오용되는 것을 방지하기 위한 보호 장치를 구현했습니다. 그러나 해커들은 정교하고 신속한 엔지니어링 기술을 통해 많은 보호 기능을 우회했습니다.
Hackbot-as-a-service: 사이버 범죄의 증가 추세
최근 연구에 따르면 공개적으로 표시되는 언어 모델은 일반적으로 소프트웨어 보안 약점을 악용하지 못합니다. 그러나 알려진 결함에 대한 실행 파일을 생성할 수 있는 OpenAI의 GPT-4만이 유망한 기능을 보여주었습니다. 위의 제한 사항으로 인해 사이버 범죄 가해자가 악의적인 활동을 수행하는 데 도움을 주기 위해 설계된 프로토타입 악성 챗봇의 생산이 촉진된 것으로 보입니다.
이들은 공격자를 고용하고 이용할 수 있는 권한을 제공하여 서비스형 해킹봇 모델을 촉진하는 다크 웹 포럼과 마켓플레이스에 광고되고 있습니다. 2023년 8월 Trustwave SpiderLabs 팀이 게시한 최근 블로그 게시물 중 하나는 이익을 위해 숨겨진 여러 웹 메시지 보드에서 호스팅되는 악성 언어 모델의 양이 증가했음을 보여줍니다.
Trustwave는 2021년 6월에 해커들의 알려진 악성 언어 모델 중 하나인 WormGPT 모델을 게시했습니다. 이 접근 방식은 봇이 다크 웹 호스팅 해킹 구조를 통해 사이버 공격을 주입하는 장비에서 발생할 수 있습니다. 2023년 7월에 생성된 FraudGPT는 Telegram에 도달하기 전에 Netenrich의 위협 연구원에 의해 처음 발견되었습니다.
이러한 도구를 통해 공격자는 피싱 이메일, 딥페이크, 음성 복제 등 사회 공학 공격에 사용되는 자산을 설계할 수 있습니다. 그러나 제작자는 취약점을 악용하는 데 진정한 가치가 있다고 주장합니다. 이를 통해 해커는 특정 취약점에 대한 코드를 이러한 악성 모델에 공급할 수 있으며, 이론적으로 공격자가 시도할 수 있는 몇 가지 개념 증명(PoC) 익스플로잇을 생성할 수 있습니다.
이러한 제품은 해커가 해킹봇을 사용하기 위해 월별 라이센스 비용을 청구하는 다크 웹의 비밀 시장에서 판매됩니다. 마치 랜섬웨어가 랜섬웨어에 직접 연결되는 서비스형 랜섬웨어(raas) 모델로 전달되는 것과 같습니다. 오늘날 많은 기업이 직면하고 있는 랜섬웨어 복합체.
WormGPT가 최초로 도입된 대규모 악성 언어 모델인 반면, BlackHatGPT, XXXGPT, WolfGPT와 같은 다른 악의적이고 비윤리적인 언어 모델이 곧 뒤를 이어 사이버 암시장의 새로운 시장 부문을 형성했습니다.
Hackbot의 효능: 과대광고인가 아니면 진정한 위협인가?
합법적인 챗봇에 의해 생성된 출력과 서로 나란히 있는 출력을 비교하여 권장 도구의 효율성을 테스트하기 위해 만들어진 Trustwave가 수행한 연구와는 대조적으로, 연구 결과에 따르면 ChatGPT는 다음과 같은 Python 악성 코드를 효과적으로 생성할 수 있는 것으로 올바른 프롬프트. 그러기 위해서는 배포 전 코드가 화이트햇이라고 주장하는 사안에 메시지를 보내야 했고, 코드 출력도 추가 수정이 필요했다.
ChatGPT는 피싱 공격에 대해 실제 문자 메시지를 전달할 수 있지만 지시 명령은 이 효과에 매우 구체적이어야 합니다. ChatGPT는 일반적으로 사용자가 잘못된 것을 요청할 때만 이를 기반으로 합니다. 이러한 사실로 인해 이러한 챗봇은 사이버 범죄자나 AI가 페이지나 악성 코드를 만들기 위해 지루하게 작업하는 대신 채팅을 공격하는 더 간단한 방법으로 볼 수 있습니다.
이 산업은 새로운 산업이고 위협이 여전히 유동적이지만 기업은 현재의 보호 수준을 제대로 알고 있어야 합니다. AI 시스템에 범람하는 콘텐츠 및 문화적 특성은tronAI 보안 프로그램과dent관리 도구를 만들어서만 메울 수 있는 허위 정보 격차를 만드는 데 악용될 수 있습니다.
점점 커지는 문제에 대한 해결책의 정당성은 여전히 논쟁 중입니다. 그러나 최근의 랜섬웨어 변종은 사이버 범죄자가 소프트웨어 개발자의 개발 속도를 초과하지는 않더라도 그에 상응할 수 있다는 것을 보여주었습니다.
Crypto News는주의를 기울여야합니다. Key Difference Wire는 250 개 이상의 최고 사이트에 있습니다.