Io, robot” contiene tutti gli ingredienti classici: un eroe tormentato e ironico, una coprotagonista bella e solo in apparenza gelida, un robot che vuole sognare. E poi grandi inseguimenti in una metropoli postmoderna, combattimenti mozzafiato, effetti speciali. Due ore di puro spettacolo che spingono a chiudere un occhio sulla fedeltà all’originale; anche perché della raccolta di racconti di Asimov rimane, pur tra tanti stravolgimenti, il nucleo filosofico originario, ovvero la centralità delle tre leggi della robotica: in un futuro più o meno prossimo i progressi scientifici rendono possibile la costruzione di robot sempre più evoluti e umanizzati. Possono svolgere qualsiasi mansione: operaio, baby sitter o scienziato. Ma devono attenersi a tre semplici leggi: la prima postula che “un robot non può recar danno a un essere umano, né permettere che, a causa della propria negligenza, un essere umano patisca danno”; la seconda dice che “un robot deve sempre obbedire agli ordini degli esseri umani, a meno che contrastino con la prima legge”; la terza che “un robot deve proteggere la propria esistenza, purché questo non contrasti con la prima o la seconda legge”.
Nei limiti di questo semplice e puntuale sistema di regole registrato nel loro cervello è racchiuso il libero arbitrio dei robot. E mentre il film prende subito la strada di un giallo futuristico, con il poliziotto che odia le macchine inevitabilmente costretto a salvare il mondo, il libro di Asimov si svolge lentamente intorno ai dilemmi etici che di volta in volta nascono dal conflitto tra le tre leggi, rendendo complicato per i robot comprendere quale sia la scelta giusta e portandoli a comportarsi in modo anomalo. Gli umani, siano essi collaudatori di robot, scienziati o psicologi, devono cercare di interpretarne le reazioni affidandosi alla logica e al sistema di riferimento delle tre leggi. Sembra semplice ma non lo è, perché i robot sono esseri superiori, sì creati dall’uomo, ma con capacità di elaborazione assai maggiore, e sanno di esserlo. Non è semplice comprendere cosa per loro sia il bene dell’umanità, né convincerli che a volte, a seguire la semplice deduzione logica, si rischia di fare seri danni. Questo è il vero limite dei robot, la ragione ultima della loro inferiorità agli esseri umani: la fedeltà a quelle leggi troppo spesso rese inefficaci o addirittura dannose dalla complessità delle situazioni reali. Dinanzi a un problema nuovo, non inquadrato nei loro sistemi di calcolo, i robot restano paralizzati, o impazziscono. Il problema si potrebbe spiegare parafrasando Aristotele: il robot non è un animale politico. “Il senso della politica è la libertà – scrive Hannah Arendt – non la libertà intesa in senso meramente individualistico come libertà da, ma come libertà di intervenire sul corso delle cose, di determinare un nuovo inizio”. E’ questo che manca ai robot e che, paradossalmente, li rende pericolosi per l’uomo. Ogni qual volta si cerchi di anteporre l’etica, la fede o il diritto internazionale al primato dell’agire politico, stabilendo impossibili automatismi, si corre il rischio di finire come Speedy, il robot protagonista di uno dei racconti di Asimov (Runaround). Di fronte a una pozza di selenio in cui si trova la salvezza per i suoi padroni umani, Speedy non sa che fare, le leggi sono in conflitto e il complicato dilemma etico in cui viene a trovarsi lo paralizza. “Così Speedy gira intorno alla pozza di selenio – osserva il suo collaudatore – mantenendosi nella posizione suggeritagli da tutti i punti che l’equilibrio dei potenziali stabilisce. E a meno che non interveniamo in qualche modo, resterà là per sempre, a fare quel buon vecchio gioco che si chiama girotondo”.