Il caso dell’AI di Google ha sollevato l’annoso dibattito sull’autocoscienza dell’intelligenza artificiale, ma la realtà è che – sebbene sia una fantasia umana da sempre – siamo ancora ben lontani dal saper creare un soggetto senziente. Oggi quel che sappiamo fare molto bene è addestrare un modello linguistico che parli e ragioni “come un umano”
A cura di Gianluca Maruzzella, CEO & Co-founder di Indigo.ai
La strada verso un’intelligenza artificiale senziente è ancora lunga. Potremmo anche non arrivarci mai, eppure da quando l’uomo ha iniziato a studiarla si è creata un’estenuante attesa per un traguardo incerto come nessun altro prima. In un certo senso, sembra quasi che non si veda l’ora di poter annunciare che l’intelligenza artificiale sia in grado di agire come un essere umano e, magari, distruggerci tutti. Come il super computer Hal di Odissea nello Spazio, capace di ribellarsi al proprio equipaggio e sterminarlo prima di venire disattivato.
Negli ultimi giorni, abbiamo letto decine di commenti e analisi sull’ingegnere di Google secondo cui l’intelligenza artificiale che stava testando (che si chiama LaMDA) sarebbe diventata senziente. Una reazione inspiegabile per chi è esperto del settore: Blake Lemoine ha semplicemente dialogato con un modello linguistico di ultima generazione addestrato nel migliore dei modi. Come se Lemoine avesse voluto credere che LaMDA fosse senziente per il semplice fatto di essere in grado di seguire una conversazione complessa su diversi piani o perché alla domanda “sei un essere senziente” l’Ai sia in grado di rispondere di “sì” e anche di argomentare sulle proprie paure o desideri. Chi lavora nel settore sa che questa AI è stata addestrata per rispondere “come se fosse consapevole di sé” ed evidentemente lo sa fare bene. Probabilmente Lemoine ha voluto vedere in questo qualcosa che non c’è.
Gli assistenti domestici
Quello che fa LaMDA è sicuramente eccezionale per la profondità raggiunta, ma nella sostanza dei fatti non fa altro che ascoltare una domanda e rispondere come fanno Siri, Alexa e Google Home. Applicazioni semplici, ma estremamente complesse dal punto di vista tecnologico. Proprio per il fatto che il linguaggio naturale è probabilmente la caratteristica più complicata da far riprodurre a una macchina.
Ma vista la qualità del sistema LaMDA, non possiamo stupirci che le sue risposte fossero pertinenti: a colpire l’ingegnere, però, è stata la capacità del modello di contestualizzare le risposte parlando di sé, esponendosi sui propri diritti e sulla propria personalità, quasi fosse consapevole di essere una macchina. Un particolare che ha convinto Lemoine della capacità di LaMDA di capire la sua natura e di avere sentimenti che attribuiamo solo agli esseri umani.
Il test di Turing
Tuttavia, saper pensare e parlare correttamente non può essere condizione sufficiente per essere senzienti. Anche perché qualcosa di simile è già successo con Gpt-3, l’ultimo algoritmo di OpenAi che dopo aver immagazzinato 175 miliardi di parametri è capace di scrivere testi che – secondo il test di Turing – i lettori non distinguono da quelli elaborati da un essere umano. A conferma che non è l’intelligenza artificiale a essere senziente, ma l’uomo a educarla e programmarla perché sia capace di farlo credere.
Se un modello così evoluto viene addestrato su miliardi di dialoghi con l’obiettivo di imparare cos’è una conversazione e come rispondere in modo pertinente e contestualizzato, altro non fa che riprodurre un percorso già visto – come fosse una partita di scacchi di altissimo livello – in una modalità ben lontana da quella che potremmo attribuire ad un essere umano e il cui parallelismo diventa una vera e propria forzatura.
L’empatia
Lemoine, probabilmente, ha voluto vedere nella sua creatura qualcosa che non c’è. D’altra parte, la capacità di sensazione implica la presenza di un apparato capace di raccogliere gli stimoli dall’esterno. Ma se anche considerassimo i sensori elettrici alla stregua di un apparato consono alla raccolta di stimoli, dovremmo riconoscere che LaMDA non ne ha. Ecco perché definirla senziente è impossibile. Dovremmo, piuttosto, riconoscere che è stata così ben addestrata da emulare conversazioni emozionali così reali che l’ingegnere chiamato a testarlo ha iniziato a provare una forte empatia. La stessa che può generare un attore in un film.
Per il momento, quindi, la storia d’amore tra Samantha, il sistema operativo provvisto di intelligenza artificiale generale con la voce di Scarlett Johansson, e Theodore Twombly (interpretato da Joaquin Phoenix), è destinata a rimanere sul grande schermo del cinema come raccontato nel 2013 da Her. Ma se la capacità delle macchine di ragionare e pensare in maniera autonoma è ancora lontana, dobbiamo essere consapevoli che la forza e la forma dell’intelligenza artificiale continueranno a crescere senza sosta.
Ufficio Stampa Indigo.ai: ddl studio
Vi è piaciuta la lettura? Continuate a seguirci
Il miglior modo è mettendo un Like e iscrivendoti sui nostri social:
Facebook: https://www.facebook.com/gravitazeroeu
Instagram: https://www.instagram.com/gravitazero
Linkedin: https://www.linkedin.com/company/10108695/
Twitter: https://twitter.com/gravitazeroeu
Volete comunicare con la redazione di Interiorissimi? Scriveteci a redazione@gravita-zero.org
Comments