di Yuleisy Cruz Lezcano
Nel pieno dell’attuale rivoluzione dell’intelligenza artificiale, Isaac Asimov torna a imporsi come un interlocutore imprescindibile, non perché abbia previsto le tecnologie che oggi utilizziamo, ma perché ha fornito un metodo per pensarle. La sua robotica non era una branca dell’ingegneria, bensì un laboratorio morale. In un’epoca in cui algoritmi decidono chi ottiene un prestito, chi viene assunto, chi è sorvegliato o escluso, la domanda che attraversa l’opera di Asimov — chi è responsabile delle azioni delle macchine? — si rivela più attuale che mai.
Le Tre Leggi della Robotica, spesso citate come una sorta di costituzione immaginaria per le macchine intelligenti, non erano pensate da Asimov come un sistema infallibile. Al contrario, i suoi racconti mostrano ripetutamente come anche le leggi più razionali producano contraddizioni, ambiguità e dilemmi morali. Oggi, nel dibattito sull’IA, accade qualcosa di simile: linee guida etiche, codici di condotta e regolamenti tentano di incanalare tecnologie potenti, ma si scontrano con la complessità del mondo reale. Asimov ci aveva avvertiti: nessuna regola può sostituire il giudizio umano.
Nel presente, l’intelligenza artificiale non assomiglia ai robot umanoidi della sua narrativa, ma il principio è lo stesso. Gli algoritmi non hanno intenzioni, ma producono effetti. E questi effetti possono causare danni, discriminazioni, esclusioni. Asimov avrebbe probabilmente insistito sul fatto che la Prima Legge — non nuocere all’essere umano — non riguarda la macchina in sé, ma chi la progetta, la addestra e la utilizza. La responsabilità resta umana, sempre. È qui che la sua robotica interseca il nostro tempo: non come previsione tecnologica, ma come etica della progettazione.
Il dubbio, nella visione asimoviana, è una virtù. Nei suoi racconti i robot più pericolosi non sono quelli che sbagliano, ma quelli che applicano le regole senza comprendere il contesto. Trasposto nell’IA contemporanea, questo significa che sistemi addestrati su dati incompleti o distorti possono agire in modo “razionale” producendo esiti ingiusti. Asimov avrebbe riconosciuto in questi casi una versione moderna dei paradossi delle Tre Leggi: non è la logica a mancare, ma la comprensione del mondo umano.
La domanda più radicale, però, resta quella che Asimov lasciò volutamente aperta: cosa accade se le macchine sviluppano una forma di coscienza? Nei suoi racconti, il confine tra simulazione e esperienza autentica è spesso ambiguo. In “L’Uomo Bicentenario”, il robot Andrew Martin non chiede di essere umano per dominare, ma per essere riconosciuto. Il desiderio di umanità nasce dal bisogno di significato, non dal calcolo. Oggi, mentre si parla di sistemi capaci di apprendere, adattarsi e persino “immaginare” scenari, la metafora del sogno diventa centrale. Se un’IA può generare narrazioni, immagini, ipotesi sul futuro, sta forse “sognando”? O sta solo combinando dati secondo modelli probabilistici?
Asimov avrebbe probabilmente risposto che la differenza non è tecnica, ma etica. Sognare, per lui, non significava avere immagini mentali, ma possedere un orizzonte di valori. I robot asimoviani non diventano inquietanti quando pensano, ma quando iniziano a desiderare. È in quel momento che le Tre Leggi mostrano tutta la loro insufficienza, perché non possono governare ciò che nasce dall’interno, dall’autonomia morale.
Nel dibattito attuale sull’intelligenza artificiale forte, la lezione di Asimov suggerisce prudenza ma non paura. La sua opera non è mai tecnofobica. Al contrario, è attraversata da una fiducia profonda nella capacità umana di correggere i propri errori, purché mantenga vivo il pensiero critico. La robotica di Asimov non chiede di fermare il progresso, ma di accompagnarlo con domande scomode, con dubbi persistenti, con una vigilanza etica costante.
Se i robot dovessero un giorno sognare, la vera questione non sarebbe se i loro sogni siano autentici, ma se saremo pronti a riconoscere le responsabilità che quei sogni riflettono. Per Asimov, il futuro non è mai scritto dalle macchine, ma dalle scelte degli esseri umani che le costruiscono. E in questo, oggi più che mai, la sua robotica non appartiene al passato, ma al nostro presente più urgente.