의도가 잘못되면 인공지능은 악의적인 사람의 손에 들어가 치명적인 도구가 될 수 있습니다. 예를 들어, 야간 근무 중 집에 전화가 와서 총을 든 남자가 문 앞에 서 있다고 알려준다고 상상해 보세요. 가족 모두 집 안에 있는데 말이죠. 어떤 기분이 들까요? 그리고 누가 그 사람인지, 범죄자이길 바라시겠습니까, 아니면 경찰관이길 바라시겠습니까?
인공지능(AI)도 마찬가지입니다. 이미 우리 집 문을 두드리고 있을 뿐 아니라, 이미 우리 집 안으로 들어와 있습니다. 우리는 모두 ChatGPT가 무엇인지 알고 있죠? 하지만 ChatGPT에 사용되는 바로 그 AI에는 우리가 생각하는 것보다 훨씬 더 사악한 어두운 면이 있습니다. 다크 웹의 세계에 오신 것을 환영합니다. ChatGPT와 유사하지만 악의적인 목적으로 만들어진 인공지능 도구들이 많이 있습니다. BadGPT, FraudGPT 등이 그 예입니다. 전문가들은 사이버 범죄, 특히 이메일 피싱이 앞으로 몇 년 동안 계속 증가할 것이라고 예측합니다.

BadGPT와 같은 것들은 실제로 무엇인가요?
이러한 서비스는 인공지능 챗봇 이지만, 우리가 일상적으로 사용하는 챗봇과는 다릅니다. 검열이나 보안 장치 없이 자유롭게 사용할 수 있는 형태로 제공되며, 고객들은 원하는 대로 활용할 수 있습니다. 주로 피싱 이메일 발송이나 사이버 공격용 악성코드 개발에 이용되어 해커들의 범죄 활동을 용이하게 합니다. 이러한 서비스의 등장으로 기업들은 그 어느 때보다 큰 위험에 직면하고 있으며, 경각심을 가져야 할 시점입니다.
최근 인디애나 대학교 연구진은 인공지능(AI) 기반의 대규모 언어 모델을 사용하는 해킹 서비스가 200개 이상 존재하며, 이미 모든 분야에서 이용 가능하다는 사실을 발견했습니다. 이러한 서비스 중 첫 번째 서비스는 2023년 초에 등장한 이후, 마치 들풀처럼 무분별하게 생겨나며 그 수는 걷잡을 수 없이 증가했습니다.

암시장에서 거래되는 이러한 도구들은 대부분 오픈 소스 AI 모델이나 Anthropic과 같은 도구의 크랙 버전을 사용합니다. '프롬프트 인젝션'이라는 기술을 사용하여 이러한 모델을 탈취하고 보안 필터를 우회함으로써 해커가 아무런 안전 검사 없이 사용할 수 있도록 합니다.
오픈아이(OpenAI) 대변인은 자사가 악의적인 목적으로 제품이 사용되지 않도록 최선을 다해 보호하고 있다고 밝혔습니다
"저희는 이러한 유형의 악용에 대해 시스템을 더욱 강력하게 보호할 수 있는 방법을 항상 모색하고 있습니다."
출처: 월스트리트저널
BadGPT의 부정적인 영향과 예방 방법
이러한 전술이 정말 효과적인지, 그리고 실제로 사람을 속일 수 있는지 궁금하실 수 있습니다. 하지만 현실은 이러한 도구를 이용해 작성된 사기성 이메일은 식별하기 어렵고, 해커들은 사이버 보안 소프트웨어에서 얻은 탐지 기술을 기반으로 모델을 학습시킨다는 것입니다.
최근 정부 전문 매체인 govttech와의 인터뷰에서 코네티컷 주 최고 정보 보안 책임자(CISO)인 제프 브라운은 BadGPT와 FraudGPT가 사이버 범죄에 악용되는 것에 대한 우려를 표명하며, 이메일 기반 사기가 상당히 증가했다고 밝혔습니다.

개인 정보를 공유할 때는 각별히 주의해야 합니다. 꼭 필요한 경우가 아니라면, 그리고 설령 필요하더라도 신중하게 판단하여 개인 정보를 공개하지 마십시오. 또한, 악성 사이트들이 이제는 매우 전문적으로 위장하여 악의적인 의도를 전혀 드러내지 않기 때문에, 정보를 공개하기 전에 반드시 해당 웹사이트를 먼저 조사해야 합니다.

