Da sempre, nella cultura della fantascienza, ci si proietta in avanti immaginando le possibili invenzioni che porterebbero l’essere umano e la sua società al vertice della conoscenza e dell’evoluzione. Tra macchine volanti, città iper-tecnologiche e astronavi per spostarsi di pianeta in pianeta, tra le invenzioni fantascientifiche più famose abbiamo i robot, automi di metallo che aiutano le persone in varie mansioni, tra le più semplici e sicure alle più difficili e pericolose. Molti artisti hanno preso queste figure di assistenza dell’uomo e le hanno ritrasformate in infinite varianti, tra robot autonomi e robot malvagi; ma il vero “padre” di queste macchine è lo scrittore di fantascienza Isaac Asimov.
Le tre leggi della robotica di Asimov: guida completa, limiti e alternative
Le tre leggi della robotica, formulate dallo scrittore di fantascienza Isaac Asimov, sono un insieme di regole pensate per garantire che i robot siano sicuri e al servizio dell’umanità. Queste leggi, diventate un caposaldo della fantascienza, hanno influenzato profondamente il modo in cui pensiamo ai robot e all’intelligenza artificiale, sollevando importanti questioni etiche e filosofiche.
Quali sono le tre leggi della robotica di Asimov?
Isaac Asimov scrive queste tre leggi della robotica insieme al suo collega e amico John W. Campbell.
Le tre leggi della robotica, introdotte per la prima volta nel racconto “Circolo Vizioso” (1942) di Isaac Asimov, sono le seguenti:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Chi ha inventato le leggi della robotica? Isaac Asimov e John W. Campbell
Sebbene le leggi della robotica siano universalmente attribuite a Isaac Asimov, è importante riconoscere il ruolo di John W. Campbell, editore della rivista “Astounding Science Fiction”, nella loro formulazione. Fu Campbell, in una conversazione con Asimov nel dicembre 1940, a suggerire l’idea di base delle leggi, che Asimov avrebbe poi sviluppato e reso celebri nei suoi racconti.
Il significato delle tre leggi della robotica: protezione, obbedienza, autoconservazione
Queste tre leggi della robotica servono a garantire la sicurezza delle persone alla presenza di questi automi; l’obbedienza dei robot agli ordini dei padroni; e la conservazione e salvaguardia delle unità.
Le tre leggi stabiliscono una gerarchia di priorità:
- Prima Legge (Protezione): La sicurezza degli esseri umani è la priorità assoluta.
- Seconda Legge (Obbedienza): I robot devono obbedire agli ordini, a meno che questi non mettano in pericolo gli esseri umani.
- Terza Legge (Autoconservazione): I robot devono proteggere se stessi, a meno che ciò non metta in pericolo gli esseri umani o non violi un ordine.
Le leggi della robotica nella narrativa di Asimov: conflitti e paradossi
Bisogna premettere però che nelle storie di Asimov, le leggi non sono perfette, venendo spesso contradette e scontrandosi tra di loro, causando nei robot un comportamento anomalo e quasi autodistruttivo. I racconti che possono fare da esempio in questo caso sono “Bugiardo!” e “Circolo Vizioso” in cui una o alcune delle leggi della robotica vengono contradette in base al contesto. Nel primo racconto, un robot capace di leggere nel pensiero, mente deliberatamente per non ferire i sentimenti della robo-psicologa che lo sta analizzando, Susan Calvin, quindi dice delle bugie pur di seguire la prima legge. Il secondo racconto presenta un problema più complesso, parla di questo robot, di nome Speedy, che si occupa di recuperare del selenio da una pozza vicino lo stabilimento di base, che si trova su Mercurio. Il robot però ha un problema: Speedy ha rivelato che sotto la pozza c’è dell’attività vulcanica che rischierebbe di danneggiarlo, quindi secondo la terza legge dovrebbe allontanarsi da lì per salvarsi, ma entra in vigore anche la seconda legge, ovvero di eseguire gli ordini dei suoi padroni e di recuperare il materiale richiesto dalla pozza. Queste due leggi della robotica causano una sorta di comportamento confusionario in Speedy, il quale, al posto di agire, inizia a correre attorno alla pozza senza eseguire gli ordini e senza salvarsi.
Asimov utilizza spesso le sue storie per esplorare le ambiguità e i paradossi che possono emergere dall’applicazione delle leggi. I robot di Asimov non sono semplici macchine, ma entità complesse che possono trovarsi in situazioni in cui le leggi entrano in conflitto tra loro o con la realtà.
Le leggi della robotica nella realtà: applicabilità e limiti
Queste leggi della robotica, nonostante siano una parte non modificabile della struttura base dell’intelligenza dei robot, possono presentare comunque dei difetti, causando più danni che soluzioni. Nella realtà, secondo lo scrittore per il New York Times ed esperto di robotica Daniel H. Wilson, le leggi della robotica di Asimov non posso essere applicate alla realtà, in quanto impossibili da programmare e, soprattutto riguardo la prima e la terza legge, non avrebbe senso che un robot preservi la sua esistenza. Il giornalista, facendo un esempio nel campo bellico dove la ricerca di intelligenze artificiali che usano armi è in crescita esponenziale, dice che non si potrebbe impartire un ordine a un drone con le tre leggi della robotica di eliminare un bersaglio, visto che entrerebbe in conflitto con la prima legge della protezione delle persone e con la terza legge della salvaguardia del robot, essendo una missione pericolosa.
Le leggi di Asimov, pur essendo un punto di riferimento fondamentale, presentano diversi limiti nella loro applicazione al mondo reale:
- Ambiguità: Termini come “danno” e “essere umano” sono soggetti a interpretazioni diverse e possono essere difficili da definire in modo oggettivo per una macchina.
- Conflitti: Le leggi possono entrare in conflitto tra loro, come dimostrato dagli stessi racconti di Asimov.
- Impossibilità di programmazione: Non esiste, al momento, una tecnologia in grado di tradurre le leggi di Asimov in un codice informatico infallibile.
Alternative alle leggi di Asimov: le proposte di Oren Etzioni
In sostituzione alle leggi della robotica di Asimov, però, interviene il CEO dell’Allen Institute of Artificial Intelligence Oren Etzioni, che propone delle nuove leggi che si adattino di più alla nostra realtà.
Oren Etzioni propone tre regole alternative, pensate per essere più facilmente traducibili in un linguaggio comprensibile alle macchine:
- Un’intelligenza artificiale deve sempre dichiarare esplicitamente di non essere un umano.
- Un’intelligenza artificiale non può memorizzare o rivelare informazioni a meno che non abbia ricevuto un esplicito permesso da parte della fonte di queste informazioni.
- Un’intelligenza artificiale dev’essere soggetta a tutta la gamma di leggi che si applica al suo operatore umano.
Ciò che Oren vuole dare come punto di partenza con le sue leggi della robotica, è un tridente di norme che tutelino noi dalle intelligenze artificiali, essendo queste, come Alexa e vari chatbot che imparano pian piano con le conversazioni, connesse all’Internet e in grado di interagire con la realtà casalinga. Non si vuole dire che da un giorno all’altro Google impazzirà e tenterà di eliminarci come Skynet di Terminator, ma queste nuove e abbozzate leggi della robotica possono essere un punto di partenza per limitare la potenza di queste IA e di avere un maggior controllo su di esse.
Queste regole, pur essendo più concrete delle leggi di Asimov, sono ancora oggetto di dibattito e non rappresentano una soluzione definitiva al problema dell’etica dell’intelligenza artificiale.
Conclusione: verso un futuro etico
Le tre leggi della robotica di Asimov, pur essendo un prodotto della fantascienza, hanno avuto un impatto significativo sul modo in cui pensiamo ai robot e all’intelligenza artificiale. La discussione sulle leggi di Asimov, sui loro limiti e sulle possibili alternative è fondamentale per affrontare le sfide etiche e pratiche poste dallo sviluppo sempre più rapido dell’intelligenza artificiale.
Se vuoi approfondire queste tematiche, leggi i libri di Asimov.
Fonte immagine in evidenza: Pixabay