Ai confini del pensiero: intelligenze umane e artificiali
18 settembre 2017
Pubblichiamo un estratto dal libro Intelligenza artificiale. Uomini, macchine e il futuro del lavoro di Jerry Kaplan, in uscita a ottobre 2017 per Luiss University Press (per l’originale © Oxford University Press 2016. Riprodotto per gentile concessione).
Un computer può “pensare”?
Il celebre matematico inglese Alan Turing affrontò questo problema in un saggio del 1950 intitolato Computing Machinery and Intelligence, nel quale proponeva essenzialmente di sottoporre la questione al voto. Costruendo quel che lui chiama il “gioco dell’imitazione”, Turing immaginava qualcuno che, da una stanza separata, poneva domande a un uomo e a una donna, con i quali poteva comunicare solo in forma scritta, preferibilmente a macchina, tentando di indovinare quale dei suoi interlocutori fosse l’uomo e quale la donna. L’uomo provava a ingannare chi poneva le domande facendogli credere di essere la donna, mentre quest’ultima dichiarava (invano, secondo Turing) di essere lei quella vera, nel tentativo di aiutare l’ “interrogante” ad associare le risposte all’interlocutore corretto. Turing invitava poi il lettore a immaginare di sostituire l’uomo con una macchina e la donna con un uomo. (Il gioco dell’imitazione è oggi ampiamente noto come “test di Turing”).
Lasciando perdere la notevole ironia psicologica di questo scienziato notoriamente omosessuale che assegna all’uomo il compito di convincere qualcun altro di essere una donna, per non parlare del fatto che all’uomo spettava il ruolo di ingannatore e alla donna quello di dire la verità, Turing proseguiva chiedendosi se fosse plausibile che la macchina riuscisse a vincere un gioco del genere contro un uomo (nel caso in cui la macchina, cioè, avesse avuto il compito di far credere a chi poneva le domande di essere l’uomo, mentre l’uomo quello di dire la verità.) Contrariamente a quello che molti credono a proposito del test, ossia che Turing proponeva con esso un “esame di ammissione” utile a determinare se le macchine fossero ormai mature e intelligenti, egli stava in realtà speculando che il nostro uso comune del termine pensare si sarebbe alla fine esteso fino a essere applicato, in maniera appropriata, a certe macchine o programmi di capacità adeguata. Egli stimava che ciò sarebbe avvenuto attorno alla fine del ventesimo secolo, una supposizione notevolmente accurata se pensiamo che oggi tutti diciamo che i computer “pensano”, di solito mentre aspettiamo sbuffando che ci diano una risposta. Per usare le parole di Turing, “Ritengo che la domanda originale, ‘le macchine possono pensare?’, sia troppo priva di senso per meritare di essere discussa. Sono nondimeno convinto che alla fine del secolo l’uso delle parole e la generale opinione pubblica colta saranno cambiate così tanto che si potrà parlare di macchine che pensano senza timore di essere contraddetti.”
Turing ha ragione? La domanda è davvero troppo insensata per meritarsi una discussione al riguardo (e perciò, implicitamente, questa discussione è essa stessa una perdita di tempo)? Ovviamente, dipende da cosa intendiamo con “pensare” […].
Alcuni critici dell’IA, e in particolare John Searle, professore di filosofia a Berkeley, osservano correttamente che i computer, di per sé, non possono affatto “pensare”, dal momento che non intendono effettivamente dire o fare alcunché – nella migliore delle ipotesi, si occupano di manipolazione simbolica. Siamo noi che associamo le loro computazioni al mondo reale. Ma Searle va ancora oltre, e sottolinea che anche affermare che i computer eseguano manipolazione di simboli sia un’esagerazione. Gli elettroni si spostano nei circuiti, è vero, ma siamo noi che interpretiamo questa attività come manipolazione simbolica […].
Malgrado gli sforzi continui da parte di generazioni di ricercatori nel campo dell’IA di confutare le osservazioni di Searle, ritengo che egli abbia essenzialmente ragione. I programmi per computer, presi di per sé, non concordano affatto con quello che comunemente intendiamo per “pensare”. I programmi si limitano “semplicemente” a svolgere sequenze di azioni logiche e deterministiche, per quanto complesse, cambiando la loro configurazione interna da uno stato all’altro. Ma ecco dov’è il problema: se pensate che il nostro cervello non sia altro che un manipolatore di simboli fatto di materiale biologico, allora non potete che giungere alla conclusione che neanche il vostro cervello, di per sé, sappia pensare. Disconnettetelo dal mondo esterno, e non farà niente di più di quello che fa un computer. Questo tuttavia stride con la nostra percezione comune secondo la quale, se ci mettiamo seduti in una stanza tranquilla e in penombra, senza alcun input o output, siamo ancora in grado di stare lì a riflettere. Bisogna trovare un accordo: se la manipolazione simbolica è la base dell’intelligenza, allora o sia le persone che le macchine sono in grado di pensare (per principio, non in pratica, a oggi), o né le une né le altre lo sono.
Newsletter
Articoli correlati
13 maggio 2021
L’attacco all’oleodotto americano è solo l’ultimo di una lunga lista di crimini ai danni di istituzioni pubbliche e private. Da tempo si è proposta l’attivazione di una data room segreta, dove raccogliere numeri, modalità e circostanze delle aggressioni. Così si possono attivare sistemi di protezione in grado di fronteggiare velocemente le azioni degli hacker.
Intelligenza artificiale, prima viene sempre l’uomo
27 aprile 2021
Con il varo del Regolamento europeo sulla intelligenza artificiale si è aperta una nuova era, caratterizzata da regole comuni volte ad individuare i rischi connessi all’uso dell’intelligenza artificiale, ma anche a valutarne e mitigarne la portata, nel riconoscimento di un inarrestabile e velocissimo progresso. Il documento propone una dimensione normativa per governare i rischi connessi all’uso di macchine evolute, senza però comprimerne le potenzialità di sviluppo.
La disfida etica delle macchine
13 aprile 2021
L’urgenza di una corretta regolamentazione della intelligenza artificiale è resa evidente dalla valutazione degli effetti, positivi e negativi, che possono derivare dalle sue applicazioni. Nell’affrontare il rapporto uomo-macchina ci si troverà infatti di fronte ad un “Vaso di Pandora”, come è già accaduto nel secolo scorso a proposito dell’energia nucleare e del suo uso per costruire la bomba atomica.
Sicurezza nazionale e IA secondo gli Stati Uniti
21 marzo 2021
Con singolare coincidenza il 1° marzo scorso sono stati presentati, negli Stati Uniti, il rapporto sull’intelligenza artificiale (IA) della Commissione per la Sicurezza Nazionale (NSCAI) e, in Italia, la relazione al Parlamento sulla politica dell’informazione per la sicurezza relativa all’anno 2020 ad opera del Comparto Intelligence. Al centro dell’attenzione di entrambi c’è la sicurezza nazionale e lo sforzo dispiegato per affrontarne le sfide più insidiose.