Home » Ma è solo… intelligenza artificiale

Ma è solo… intelligenza artificiale

by Lettere21

Robot e nuovi supercomputer di sicuro non ci sostituiranno. Anzi, ci aiuteranno a risolvere i problemi del Pianeta. Parola di scienziati

«Tutto ciò che amiamo nella nostra civiltà è frutto dell’intelligenza: perciò amplificare quella umana unendola a quella artificiale farà fiorire il nostro mondo come mai prima»: secondo Max Tegmark, fisico del Mit di Boston e Presidente del Future of Life Institute, non c’è motivo per temere lo sviluppo dell’Intelligenza artificiale. Già oggi affidiamo tranquillamente ai computer il compito di gestire centrali elettriche, traffico aereo e investimenti finanziari, e domani lasceremo loro la soluzione di problemi estremamente complessi, come il cambiamento climatico. Un ottimismo scientifico che sembra “fuori dal coro”, visto che racconti e film di fantascienza non fanno che immaginare un futuro in cui robot e supercomputer ci soppianteranno. Soprattutto ora che è imminente la nascita della cosiddetta Asi, la Super intelligenza artificiale: un cervello elettronico «molto più veloce e potente di quello umano in qualunque ambito, inclusi la creatività scientifica, la saggezza generale e le abilità sociali», precisa il filosofo svedese Nick Bostrom.

Alcuni studiosi collocano già nel 2045 il momento in cui un sistema informatico, dotato di autonomia nell’imparare e nel progettare se stesso, supererà la capacità di comprendere degli esseri umani. A questo punto (che però molti scienziati collocano parecchio più avanti nel tempo), i modelli possibili del nostro rapporto con le macchine saranno 3: il primo intravede la collaborazione pacifica tra la nostra specie e i computer. Il secondo prevede di anticipare i possibili problemi posti dall’Intelligenza artificiale in modo da evitare danni al genere umano. Mentre nel terzo l’umanità non terrà più il passo con le capacità delle macchine, ma non si estinguerà. Ecco come se la caverà l’uomo nei tre casi.

SCENARIO 1: LA COESISTENZA PACIFICA

La prima garanzia di una serena convivenza tra uomo e macchina sta nel fatto che i rispettivi interessi e bisogni sono molto diversi. «Noi abbiamo necessità di assicurarci fonti di cibo, una discendenza, e di poter esprimere la nostra volontà. Alle macchine questo non interessa. È probabile dunque che, anziché lottare con gli umani, esse competano tra di loro», argomenta Charles Simon, ingegnere informatico e autore di Will computer revolt? Preparing for the Future of Artificial Intelligence. «Inoltre, prima di lasciare che i computer trovino in autonomia soluzioni ai nostri problemi, ci sarà un lungo periodo in cui li testeremo e quindi li addestreremo a non nuocere». Tra l’altro, l’immagine di un computer intenzionato a sottomettere il mondo, spiega lo psicologo evoluzionista Steven Pinker, semplicemente «proietta sull’Intelligenza artificiale un carattere da “maschio dominatore” che gli è estraneo: essa potrebbe benissimo evolvere verso modelli collaborativi, ovvero capaci di risolvere problemi ma senza il desiderio di comandare». E, anche se domani saranno i computer a decidere da soli, non avverrà il temuto rimpiazzo del lavoratore umano da parte di un robot. Al contrario: l’Intelligenza artificiale avrà bisogno di essere “educata” dall’uomo. Lo sostengono gli esperti di tecnologia Paul Daugherty e James Wilson, in un report in cui delineano i nuovi mestieri cui gli umani saranno chiamati in futuro; tra i quali c’è per esempio “l’addestratore di chatbot”, in grado di insegnare ai software usati da operatori telefonici, banche o aziende a mostrare empatia e personalità. Insomma, a fingersi umani.

SCENARIO 2: LA MACCHINA IMPAZZITA

«A dispetto dei numerosi film in cui una macchina diventa cosciente di sé e si ribella al suo creatore (tipo Hal 9000 in 2001 – Odissea nello spazio), qualora un computer mostrasse un comportamento non in linea con quello di altri sistemi, verrebbe eliminato dai suoi simili», sostiene Simon. C’è caso e caso, però: un conto è che una macchina voglia iniziare una guerra nucleare, cosa chiaramente “percepita” dagli altri computer come un pericolo generale; un altro, che persegua spietatamente lo scopo per cui è stata programmata. Prendiamo un sistema progettato per fare graffette: «Un meccanismo congegnato a tal scopo potrebbe voler accedere a tutte le risorse necessarie a creare quante più graffette possibili e quindi impedire che gli umani usino le stesse risorse per produrre altri oggetti», esemplifica Bostrom.

Il problema insomma non è che una macchina voglia nuocere all’uomo, ma che non si curi se la sua azione danneggi la nostra incolumità. E così, per noi umani, l’inferno potrebbe essere lastricato di buone… invenzioni. Non è un caso allora che nel febbraio 2018 un team di 26 specialisti abbia pubblicato The malicious use of AI, uno studio che raccomanda “procedure di salvaguardia”, per impedire ai computer di nuocere agli umani in ogni caso. Si tratta, cioè, di fare quello che negli anni Cinquanta è stato fatto per il nucleare: studiarne le applicazioni, ma anche cercare accordi internazionali per tenere il mondo al sicuro. Da temere non è il robot, ma l’assenza di regole condivise nel decidere come usarlo, a livello globale e anche a livello più piccolo: «Il mandato di raggiungere un suo fine in ogni caso, per esempio, può indurre il tuo robot domestico a cucinare il gatto perché i bambini sono affamati e tu non hai fatto la spesa», illustra lo scienziato Stuart Russell, docente a Berkeley. Insomma, «nel momento in cui l’Intelligenza artificile programmerà se stessa per migliorare le sue capacità, occorre prevedere che il suo sistema di definizione degli obiettivi comprenda un allineamento con i valori umani», sottolinea Russell. E se non si trovasse il modo di costruire un robot o un supercomputer sicuro al 100%? Si potrebbe progettare una Intelligenza artificiale “difensiva”, un dispositivo che vigili sulle altre macchine.

SCENARIO 3: IL FOLLE PADRONE DEL COMPUTER

E se i progettisti o proprietari della Super intelligenza artificiale la usassero per impadronirsi del mondo? Del resto, si può prevedere un controllo degli scopi dei computer ma non si possono controllare le persone o le corporations che li creeranno. In realtà, più che a scatenare una guerra mondiale, individui o società potrebbero avere interesse a manipolare il mercato finanziario o a influenzare le opinioni della gente, come insegnano i recenti casi di cronaca (quello di Cambridge Analityca, per esempio). Ma la buona notizia è che questo rischio avrà vita breve. Secondo Charles Simon, solo durante la fase iniziale dell’Asi l’uomo avrà la facoltà di interferire. Dopo alcune generazioni di computer, magari progettati da altri computer, l’uomo non sarà più in grado di modificarne l’azione (e quindi c’è da sperare che in fase di programmazione si sia tenuto conto dello scenario 2). In quel momento, mentre noi penseremo secondo le nostre limitate facoltà, le macchine opereranno a un livello ben superiore. Avranno un cervello così sofisticato da risultare (per noi) indecifrabile, ma non per questo l’umanità scomparirà: al contrario, la nostra “vita 3.0”, come la chiama Tegmark, potrebbe essere piacevole e significativa, anche se magari indistinguibile da una realtà virtuale immersiva, alla Matrix. Nel frattempo le macchine si concentreranno sul raggiungere i loro obiettivi, elaborare la loro filosofia e la loro arte, espandersi oltre i confini della Terra. Insomma, a far fiorire la loro avanzatissima nuova civiltà.

Potrebbe piacerti anche

Leave a Comment

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00