Se l'intento è sbagliato, l'intelligenza artificiale può rivelarsi uno strumento letale nelle mani della persona sbagliata. Immagina di essere di turno di notte e di ricevere una chiamata da casa che ti informa che c'è un uomo alla porta con una pistola in mano. E tutta la tua famiglia è in casa. Quali saranno i tuoi sentimenti e chi preferiresti che fossero? Un criminale o un agente di polizia?
Lo stesso vale per l'intelligenza artificiale, che sta già bussando alle nostre porte, anzi, è già entrata nelle nostre case. Sappiamo tutti cos'è ChatGPT, vero? Ma c'è un lato oscuro nella stessa intelligenza artificiale utilizzata per ChatGPT, che è più sinistro di quanto pensiamo. Benvenuti nel dark web. Esistono numerosi strumenti di intelligenza artificiale simili a ChatGPT, ma creati per soddisfare il lato oscuro del mercato. Strumenti come BadGPT e FraudGPT, per citarne alcuni. Secondo gli esperti, la criminalità informatica, in particolare il phishing via e-mail, continuerà ad aumentare nei prossimi anni.

Cosa sono realmente i BadGPT e simili?
Si tratta fondamentalmente di chatbot basati sull'intelligenza artificiale, ma non di quelli che utilizzi quotidianamente per le tue attività di routine. Si tratta di modalità non censurate, senza alcuna misura di sicurezza in atto, e sono disponibili per i clienti che desiderano utilizzarle in base alle proprie esigenze. Vengono solitamente utilizzati per e-mail di phishing o per sviluppare malware per attacchi informatici, al fine di supportare gli hacker e facilitare le loro attività criminali. Le aziende sono in stato di massima allerta e a rischio più che mai con l'avvento di questi servizi.
Di recente, i ricercatori dell'Università dell'Indiana hanno scoperto più di 200 servizi di hacking che utilizzano modelli linguistici di grandi dimensioni, ovvero l'intelligenza artificiale, e sono già disponibili sul mercato per ognuno di essi. Il primo di questi servizi è apparso all'inizio del 2023 e da allora non si è più tornati indietro, continuando a spuntare come l'erba selvatica.

La maggior parte di questi strumenti destinati al mercato nero utilizza modelli di intelligenza artificiale open source o versioni craccate come Anthropic. Una tecnica chiamata "prompt injection" viene utilizzata per dirottare questi modelli e aggirare i loro filtri di sicurezza, in modo che gli hacker possano utilizzarli senza alcun controllo di sicurezza.
Un portavoce di OpenAI ha affermato che la loro azienda fa del suo meglio per proteggere i propri prodotti dall'uso per scopi dannosi e che è,
"siamo sempre al lavoro per rendere i nostri sistemi più resistenti a questo tipo di abuso."
Fonte: WSJ
L'impatto negativo di BadGPT e come prevenirlo
Potreste chiedervi se queste tattiche siano davvero efficaci e se possano davvero convincere qualcuno. La realtà è che le email fraudolente scritte con questi strumenti sono difficili da individuare e gli hacker addestrano i loro modelli su tecniche di rilevamento acquisite dai software di sicurezza informatica.
Di recente, in un'intervista con govttech, Jeff Brown, CISO (responsabile della sicurezza informatica) dello stato del Connecticut, ha espresso la sua preoccupazione riguardo all'utilizzo di BadGPT e FraudGpt nei reati informatici e ha affermato che si è registrato un notevole aumento delle frodi basate sulla posta elettronica.

Gli individui possono scongiurare questi attacchi prestando particolare attenzione quando condividono le proprie informazioni personali con chiunque. Non condividere le tue informazioni apertamente, né con una persona né su un sito web, a meno che non sia strettamente necessario, e anche in questo caso con cautela. Prima di rivelare le tue informazioni, indaga sempre sul sito web, poiché i siti dannosi ora hanno un aspetto molto più professionale senza il minimo accenno di essere dannosi.

