martedì 28 luglio 2015

Armi Autonome Intelligenti. Una volta non era un film?


Stephen Hawking il fisico teorico, Steve Wosniak cofondatore di Apple, Elon Musk CEO della Tesla Motors, Demis Hassabis, uno dei padri di google, sono solo alcuni dei nomi che aderiscono alla richiesta di messa al bando per le armi autonome dotate di intelligenza artificiale.
"E' solo una questione di tempo prima che le si ritrovi al mercato nero e nelle mani di gruppi terroristi".
Il Fisico Teorico Stephen Hawking e il CEO della Tesla Motors Elon Musk hanno aderito alla campagna lanciata dagli esperti di intelligenza artificiale e di robotica per la messa al bando delle "armi ofensive autonome dotate di intelligenza artificiale", con una lettera aperta pubblicata lunedi scorso.
La tecnologia dell'intelligenza artificiale ha raggiunto un punto di sviluppo in cui l'impiego pratico di tali sistemi è fattibile entro pochi anni, non decenni e i rischi sono alti.
La lettera verrà presentata mercoledì 29 luglio al "International Joint Conference on Artificial Intelligence" che si terrà a Buenos Aires.
Le armi autonome intelligenti sono state descrite come la terza rivoluzione nel campo militare, dopo le armi da fuoco e le armi nucleari.
La lettera pone una distinzione tra le armi che possono selezionare e attaccare bersagli senza ordini umani rispetto ai droni e ai missili guidati i cui bersagli sono selezionati da uomini.
La lettera spiega inoltre come l'intelligenza artificiale possa rendere più sicure le zone di guerra per i militari senza il bisogno di sviluppare armi che possono operare senza il controllo umano.
Sarebbe solo questione di tempo prima che queste armi inizino a essere reperibili al mercato nero e nelle mani di terroristi, dittatori e altri attori negativi della scena mondiale. Ci sono molti modi in cui l'intelligenza artificiale può rendere più sicuri i campi di battaglia per gli uomini, specialmente per i civili, senza creare nuovi strumenti di distruzione.

Leggendo questa notizia la mente non può non correre a film come Terminator in cui le macchine dotate di intelligenza artificiale erano anche in grado di auto prodursi e alle tre leggi della robotica di Asimov che ponevano i paletti invalicabili per la vita artificiale nei confronti dell'umanità e degli uomini:
  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge
 In un certo qual modo la lettera aperta firmata da Hawkings e dagli altri va nella stessa direzione. Riporto di seguito il testo integrale tradotto.


Armi autonome: una lettera aperta dai ricercatori di robotica e intelligenza artificiale

Le armi autonome selezionano e ingaggiano bersagli senza intervento umano. Possono includere, per esempio elicotteri armati che possono cercare e eliminare persone secondo certi criteri predefiniti, ma non includono i missili guidati o i droni pilotati in remoto nei qual casi le decisioni vengono prese da soggetti umani.
La tecnologia di intelligenza artificiale ha raggiunto un punto dove lo sviluppo di certi sistemi è praticamente, se non legalmente, fattibile in pochi anni e non decenni e i rischi sono alti: le armi autonome sono state definite la terza rivoluzione in campo militare dopo l'avvento delle armi da fuoco e delle armi nucleari.

Molti sono gli argomenti pro e contro le armi autonome intelligenti, per esempio  rimpiazzare soldati umani con macchine è utile a ridurre perdite per chi le possiede ma al contempo si riduce la difficoltà di andare in battaglia. La domanda chiave per l'umanità oggi è se dare vita a una nuova razza globale, di armi basate su intelligenza artificiale, o in alternativa adoperarsi per prevenirne la nascita.

Se qualche alto comando militare spingerà per lo sviluppo delle armi a intelligenza artificiale autonome una corsa globale agli armamenti sarà inevitabile e il punto di arrivo di questa traiettoria tecnologica è scontato: le armi autonome diventeranno i kalashnikov di domani.
Contrariamente alle armi nucleari non richiedono costi o materiali difficili da ottenere per essere realizzate, così la loro produzione di massa diventerà disponibile e a basso costo per ogni potere militare di un certo livello.
Sarà solo una questione di tempo prima che le si possa trovare sul mercato nero o finire nelle mani di terroristi, dittatori che vogliono tenere sotto controllo i propri popoli, signori della guerra che vogliano perpetrare pulizie etniche ecc.

Le armi autonome intelligenti sono l'ideale per missioni come assassinio, destabilizzazione di nazioni, sottomissione di popoli e uccisioni selettive di particolari gruppi etnici.  Noi crediamo quindi che lo sviluppo di armi autonome basate su intelligenza artificiale non porti alcun beneficio per l'umanità. Ci sono molti modi in cui l'intelligenza artificiale può rendere i campi di battaglia più sicuri per gli uomini, specialmente i civili, senza creare nuovi strumenti per uccidere persone.

Così come molti chimici e biologi non hanno interesse nel costruire armi biologiche o chimiche, la maggior parte dei ricercatori di intelligenza artificiale non hanno interesse nel costruire armi autonome basate sulla IA e non vogliono che altri le sviluppino, creando potenzialmente una opinione pubblica contraria all'intelligenza artificiale la cui ricerca può invece portare benefici alla società del futuro. 

Allo stesso modo i chimici e biologi hanno supportato pubblicamente inizative internazionali
che hanno portato al divieto nell'uso di armi chimiche e biologiche e molti fisici hanno supportato i trattati che hanno messo al bando le armi nucleari e blidato le armi laser.

In sostanza noi crediamo che l'intelligenza artificiale abbia un grande potenziale da offrire in termini di benefici all'umanità e che l'obiettivo del campo di ricerca sia quello. 

Dare inizio a una razza di armi autonome basate sull'intelligenza artificiale è una pessima idea e si dovrebbe agire preventivamente con una loro messa al bando prima che il loro sviluppo sfugga al controllo umano.



1 commento: