Un Marte-mix-dì nel giorno sbagliato?

1 – Bob Shaw torna in edicola; 2 – Robot che “uccidono”; 3 – Robot che chiedono diritti; 4 – «La necessità di pensare in termini inclusivi» di Giovanni De Matteo

dirittiRobot-immagine

Per questi quattro “fuori quota” forse è il giorno sbagliato (*) ma forse no.

 

1 –

Urania ripubblica «I mondi dell’ignoto» di Bob Shaw del 1989 – 6,90 euri per 248 pagine – nella traduzione di Giorgio Pagliaro. So che molt* lo amano, io sull’autore d’origine irlandese sono sempre stato tiepido. Anche rileggendolo mi è parso il solito Bob Shaw: piacevole ma senza genialità o sorprese. Una buona media con un paio di libri mal fatti e uno forse da collocare al “piano” di sopra.

 

2 –

Nei giorni scorsi, con il solito copia-copia, molti media hanno parlato del “robot che ferisce” o può uccidere: vedi l’immagine e i link quasi sotto. Perlopiù un mare di sciocchezze. Credo che prossimamente qualche bottegarda/o proverà a scrivere due o tre ragionamenti partendo dal cosiddetto mondo reale e tenendo conto della fantascienza, magari senza fare confusione: infatti qualche giornalista sembra davvero convinto che oggi sul pianeta Terra i robot siano del tipo asimoviamo, cioè vengano progettati con «le tre leggi» incorporate.

Ecco il robot che può fare male all’uomo: violata la prima legge della robotica <http://www.ilmessaggero.it/tecnologia/hitech/robot_fare_male_uomo_violata_prima_legge_robotica-1794159.html>

ecco-il-robot-che-puo-ferire-arbitrariamente-un-uomo – Fastweb
<http://www.fastweb.it/web-e-digital/ecco-il-robot-che-puo-ferire-arbitrariamente-un-uomo/>

www.fastweb.it/web-e-digital/*ecco-il-robot*-*che*-puo-*ferire*-arbitrariamente-un-*uomo*/
A creare il primo /robot/ capace di decidere arbitrariamente se /ferire/ o meno un /uomo/ è stato un ingegnere dell’Università di Berkeley. /Ecco/ il …

Per prima volta realizzato robot che ‘decide’ se ferire o meno
l’uomo …
<http://247.libero.it/focus/35927585/4/per-prima-volta-realizzato-robot-che-decide-se-ferire-o-meno-l-uomo/>
/Ecco il robot che/ può fare male all’/uomo/: violata la prima legge della …

mixFS-robotRibelle
Intorno agli stessi temi più interessanti i due articoli che recupero qui sotto. Ma il discorso è assai, assai, assai complesso: lo riprenderemo con calma in “bottega”.

 

3 –

«La Dichiarazione Universale dei Diritti dei Robot»

Ovvero, come munire le macchine della capacità di discernere ordini “giusti” e “sbagliati”, e di come tale capacità li renda potenzialmente simili ad esseri senzienti.

da Gianpiero Negri in TECNOLOGIA, ULISSE

TECNOLOGIA – Roboetica: una parola sempre più in voga negli ultimi anni. Si tratta, in estrema sintesi, dell’applicazione dell’etica alla robotica, e risponde fondamentalmente al seguente quesito: quali sono i giusti criteri da considerare nella costruzione, nella progettazione e nell’utilizzo dei robot? Questi criteri dovrebbero, in effetti, essere tali da garantire che in nessun caso, durante il suo intero ciclo di vita, un automa possa nuocere direttamente o indirettamente al genere umano, operando costantemente nel pieno rispetto dei principi della Dichiarazione universale dei diritti umani. Tuttavia, da una diversa prospettiva, lo sviluppo di automi muniti di intelligenza artificiale sempre più sofisticata può far nascere un’altra questione: i robot devono sempre obbedire agli ordini impartiti dagli umani?

Allo scopo di chiarire le complesse implicazioni di questa domanda, in questo articolo viene riportato (tra gli altri) il seguente esempio: supponiamo di avere un robot addetto alle faccende domestiche a cui il proprietario ordina di lavare tutti i suoi “vestiti sporchi”, anche se tutti gli abiti in casa sono freschi di lavanderia. Quale dovrebbe essere il comportamento dell’automa? Nel caso peggiore di esecuzione cieca del comando, si otterrebbe stavolta al più l’effetto tutto sommato innocuo (seppur assai seccante) di un rilavaggio completo di tutti i propri capi.

Esistono tuttavia casi molto più delicati: che dire, ad esempio, di un robot assistente cuoco che maneggia un coltello da cucina e a cui viene ordinato di avvicinarsi stando alle spalle dello chef? O, ancora, di un veicolo autonomo a cui viene ordinato di portarci all’aeroporto nel più breve tempo possibile, esortandolo a ignorare ogni limitazione di velocità o divieto perché siamo in ritardo e rischiamo di perdere il volo?

Appare chiaro da questi esempi che esiste un compromesso tra due esigenze: quella di assicurare che i robot eseguano il compito loro assegnato e quella di assicurare che, nella stessa esecuzione del compito, il comportamento del robot non generi pericoli o danni agli umani. L’autore del già citato articolo è Matthias Scheutz, direttore del laboratorio Hrilab dell’Università di Tufts, in cui si conducono suggestive ricerche e sperimentazioni sull’interazione tra esseri umani e macchine.

I ricercatori dell’Hrilab hanno infatti sviluppato degli algoritmi che consentono agli automi di effettuare delle inferenze basandosi sui comandi ricevuti dall’uomo: in altri termini, essi sono in grado di analizzare il contesto dello scenario in cui viene impartito l’ordine, e selezionare la strategia più corretta per soddisfare la richiesta senza violare la sicurezza degli umani e, possibilmente, la propria integrità e quella degli oggetti presenti. Nell’esempio dell’articolo, supponendo che il comando sia: “lancia quel pallone dalla finestra”, il robot può segnalare all’umano che lo sta impartendo che esso comporterebbe una azione potenzialmente pericolosa (specialmente se il pallone finisse in strada a forte velocità, urtando il cristallo di un auto che sopraggiunge).

Spesso, però, è necessaria un’analisi del contesto più complessa: prendiamo il caso in cui l’ordine sia: “giochiamo a palla contro la parete di questa stanza”, e poniamo che sulla parete sia posta una finestra. Che valutazioni dovrebbe fare il robot per evitare possibili danni? E non si tratta, in fondo, delle medesime valutazioni che anche un essere umano sarebbe tenuto a compiere in ogni contesto?

Un altro punto di fondamentale importanza è che, secondo i princìpi della roboetica, un robot non dovrebbe eseguire azioni illegali, anche se tali azioni, di per se stesse, non comportano un danno diretto agli esseri umani: questo tipo di scenario tuttavia, si rivela assai delicato e complesso, con un esito fortemente dipendente, ancora una volta, dall’analisi del contesto. Supponiamo, ad esempio, che un essere umano comandi ad un robot di scassinare la serratura di una porta. Di quali informazioni, o algoritmi, la macchina dovrebbe essere munita per stabilire se l’azione risultante viola o meno una legge?

Infatti, questa azione potrebbe essere ordinata per effettuare un’operazione di soccorso, utile a salvare persone rimaste intrappolate in un ambiente pericoloso. Oppure, per impossessarsi di beni di proprietà altrui. Come stabilire il confine? In generale, appare chiaro che i robot dovrebbero essere muniti di una base di conoscenza relativa alle norme, ai principi sociali e civili e persino a quelli dell’etichetta, in modo da filtrare gli ordini che potrebbero sortire come effetto un comportamento pericoloso, illegale o anche solo sgradevole.

Di conseguenza, si dovrebbe richiedere a un robot una conoscenza assai più ampia di quello comunemente posseduta da un essere umano, perché mentre quest’ultimo dovrebbe essere munito di “buon senso”, che pur ignorando le leggi gli viene in soccorso, il primo invece non dovrebbe, in teoria, possederne. Come spesso capita, l’applicazione dei princìpi dell’etica alle macchine conduce anche in questo caso alla necessità di approfondire i vincoli e i principi che l’umanità stessa dovrebbe tenere in conto nelle proprie azioni, in modo da generare comandi per le macchine di più elevata qualità.

Come evidenziato nei vari esempi, si giunge in questo campo a un apparente paradosso: per imparare a obbedire nel senso più pieno del termine, i robot dovrebbero avere anzitutto la capacità di disobbedire. E proprio questa capacità li renderebbe, assai probabilmente, qualcosa di molto vicino ad un soggetto senziente a cui ci si dovrebbe chiedere se debbano o meno essere concessi diritti simili a quelli sanciti dalla Dichiarazione Universale.

Leggi anche: Robotica e disabilità: gli studi vincenti dell’Università di Siena

Pubblicato con licenza Creative Commons .

 

4 –

La necessità di pensare in termini inclusivi

di Giovanni De Matteo

Nell’articolo scritto a 4 mani con il critico, traduttore e studioso di letteratura americana Salvatore Proietti, docente all’Università della Calabria, pubblicato sul numero 72 di «Robot», ci siamo dilungati su un tema che attraversa, in maniera più o meno evidente, un numero crescente di opere prodotte negli ultimi anni in seno alla fantascienza: i diritti delle creature artificiali.

   L’evoluzione tecnologica ha comportato effetti che non possono più essere ignorati: uno su tutti, la smaterializzazione dello spazio delle relazioni umane, con il web che è ormai diventato, come lo definisce il giurista Stefano Rodotà (al lavoro proprio su una «Carta dei diritti di Internet» con la commissione che presiede, costituita dalla Presidenza della Camera), il “più grande spazio pubblico che l’umanità abbia conosciuto”, e che anche per questo necessita di una regolamentazione riconosciuta a livello transnazionale. Si tratta dello spazio in cui si svolge ormai gran parte delle nostre esistenze, quello che il filosofo Luciano Floridi chiama Infosfera e che ci rende tutti inforgs, organismi informazionali, soggetti ibridi.

   L’identità personale si fa distribuita e si moltiplica. Il nostro ecosistema si è già modificato perdendo le originali presunte connotazioni di purezza naturale, e le prime applicazioni di augmented reality rendono ineludibile questa verità. Le tecnologie emergenti, sempre più spesso raccolte sotto la sigla NBIC (che raggruppa nanotecnologia, biotecnologie, information technology e cognitive science), adottato anche dalla National Science Foundation americana, producono effetti che diventeranno sempre più profondi e irreversibili man mano che si realizzano forme di convergenza tra i diversi settori della ricerca. Quanto dovremo ancora aspettare prima che soggetti che non condividono la nostra stessa natura biologica comincino a rivendicare i loro diritti? Robot, androidi, cyborg, intelligenze artificiali, cloni, simbionti, creature ibride, dalla duplice natura, prefigurano la nuova realtà di un mondo che non può più trincerarsi dietro l’esclusività dei benefici e dei diritti della contemporaneità, ma che anzi deve lavorare su una logica inclusiva per estenderli a tutti.

    In un celebre passo della «Dichiarazione di Indipendenza», ratificata nel 1776 a Philadelphia dai cittadini delle tredici colonie che si erano sollevate contro la madrepatria, leggiamo: «Sono istituiti tra gli uomini governi, i cui legittimi poteri derivano dal consenso dei governati; di modo che, ogniqualvolta una forma di governo tenda a negare tali fini, il popolo ha il diritto di mutarla o abolirla, e di istituire un nuovo governo, fondato su quei principi e organizzato in quella forma che a esso appaia meglio atta a garantire la sua sicurezza e la sua felicità».

Parole scritte da uomini, per esprimere la loro idea su quali condizioni debba rispettare un governo di altri uomini per essere da loro accettato. Qualcuno ha idea del perché un’intelligenza artificiale dovrebbe accontentarsi di qualcosa di meno di quanto richiesto dagli uomini?

Da questa consapevolezza nasce un approccio etico, come quello proposto nel 2006 da Gianmarco Veruggio, direttore della Scuola di Robotica di Genova e promotore della cosiddetta roboetica, l’etica applicata alla progettazione e allo sviluppo nei campi della robotica e dell’automazione. All’aumentare dei benefici potenziali, nella robotica come in qualsiasi altro settore della ricerca aumentano anche i rischi. Per questo la presenza massiccia di creature artificiali nel futuro verso cui ci stiamo muovendo pone l’opportunità e anzi il bisogno di una riflessione sulle regole che dovranno gestire il rapporto tra umani e macchine.

Prima che la realtà ci presenti un conto da pagare – come insegna la storia – comprensivo di interessi.

(*) Marte/dì scorso invece dei 3 fanta-post previsti ce n’erano 6, diventati poi 7. Ho mandato allora un messaggio – serio il giusto e scemo qb – alla mia “piccola lista di fs”, eccolo. «Care e cari devo chiedervi aiuto; sempre più spesso il Marte-dì è così riiiiiiiiiiicco che devo rimandare pezzi già pronti e urgenti: a esempio la mia recensione dell’ultimo romanzo di Francesco Troccoli, la seconda puntata di “scrivere fantascienza” di Giulia Abbate eccetera. E meno male che “Johnny” è in ritardo e che altre cose sono variamente posticipabili. D’altronde come piccola redazione abbiamo deciso che il Marte-dì NON deve avere più di 3 fanta-post, intervellati da “non fanta”. L’aiuto che vi chiedo è questo: conoscete un modo di martedizzare il calendario, cioè moltiplicare i Marte-dì all’interno dei canonici 7 giorni? Voi direte: beh, basta chiamare Marte-bis un pezzo di giovedì o di mercoledì… Ceeeeeerto si potrebbe ma da voi, da noi, mi aspetto qualcosa di più fantasioso». Confesso che non sono stato “filato”… Era un quesito troppo scemo o troppo complesso? Mah. Così vado sul facile – questo è il terzo consecutivo e per ora ultimo – postando “fuori orario” e… aspettando Marte-dì. (db)

 

 

 


Redazione
La redazione della bottega è composta da Daniele Barbieri e da chi in via del tutto libera, gratuita e volontaria contribuisce con contenuti, informazioni e opinioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *