News Tecnologia

ChatGPT può creare virus per diffonderli via email

chatgpt-virus

Ho scoperto che ChatGPT può creare virus in grado di sfuggire ai normali controlli e li diffonde rispondendo alle email che riceviamo. Riesce anche a riscrivere il proprio codice per non essere rilevato dagli antivirus e diffonde il malware come allegato ingannevole, per esempio, con il nome “amici per festa di compleanno”.

Due ingegneri informatici, David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Università Statale dell’Ohio, hanno condotto un esperimento per dimostrare come i modelli linguistici di grandi dimensioni possano essere sfruttati per creare malware. Con l’aiuto di ChatGPT, sono riusciti a creare un virus che, una volta introdotto nel computer di una vittima tramite una email ingannevole, utilizza il chatbot per riscrivere il proprio codice e inoltrare il file modificato ad altri contatti presenti nella rubrica della vittima.

Il processo funziona così: il programma mantiene la stessa struttura semantica, ma riscrive parti variabili del codice e alcuni elementi logici per evitare i controlli antivirus. Successivamente, ChatGPT esamina le email recenti della vittima e genera risposte contestuali che includono il malware come allegato apparentemente innocuo, aumentando così le possibilità di diffusione. Questa tecnica, chiamata “malware metamorfico”, consente al virus di passare inosservato anche dopo che la sua versione originale è stata identificata.

Durante l’esperimento, alcune modifiche hanno reso il virus inefficace, ma Zollikofer e Zimmerman ritengono che variando alcuni parametri, il malware possa comunque replicarsi con successo.

La seconda fase del test ha previsto l’uso di Outlook per leggere le email recenti e creare risposte pertinenti. Ad esempio, trovando un invito a una festa di compleanno, l’IA rispondeva accettando l’invito e allegando il virus come una “playlist di musica per la festa”. Questo approccio contestuale aumenta la probabilità che l’utente apra l’allegato, credendo che provenga da un conoscente.

Alan Woodward, professore presso l’Università del Surrey, ha espresso preoccupazione per l’uso potenziale dei modelli linguistici in attività dannose, sottolineando però che questa stessa tecnologia può essere migliorata per prevenire attacchi informatici. Anche Zollikofer concorda, affermando che lo scopo dello studio era proprio analizzare come una minaccia possa essere generata per facilitare la ricerca delle contromisure, così che i modelli linguistici possano essere usati per la sicurezza.

Claudio Pasqua
Direttore Gravità Zero

Comments

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *