Chiudi

Cervelli elettronici

Ogni tanto ci torniamo. Negli anni iniziali del computer, quando un calcolatore di medie dimensioni occupava una stanza o addirittura tutto un piano di un edificio – e richiedeva una centrale elettrica per essere alimentato e raffreddato, la stampa coniò il termine “cervello elettronico”, o confidenzialmente “cervellone” per indicare la capacità di svolgere calcoli velocissimi e memorizzare migliaia o milioni di dati. Ma il cervello allora non c’entrava niente. Neppure lontanamente. Per esempio la capacità di apprendere spontaneamente in base a stimoli esterni, di prendere decisioni anche senza avere tutti gli elementi, per non parlare di emozioni e sentimenti. Quei grossi bestioni di allora, e anche i nostri piccoli laptop e smartphone sanno fare una cosa sola: svolgere rapidamente serie di istruzioni codificate, sotto forma di programmi più o meno complessi, che rispondono ad algoritmi sofisticati. Su questi sistemi, magari supercomplessi, superparalleli, con supermemorie, si basa l’attuale tecnologia dei computer. Ma poi è arrivata l’Intelligenza Artificiale. Ci risiamo.

Il cervellone, passato di moda negli anni 70, riaffiora sotto forma di “macchina intelligente”, capace di fare le cose che abbiamo elencato sopra, come imparare spontaneamente, guidare un’automobile, riconoscere un viso o una firma, capire – anzi intuire – quando è il momento di acquistare o vendere azioni. Ma allora, direte voi, ci siamo! Abbiamo finalmente i cervelli elettronici che sognavamo da sempre. Qualcosa del genere, ma non proprio, e con alcuni problemi. È una storia interessante e merita di essere raccontata almeno per sommi capi. La storia delle Reti Neurali.

Bisogna andare indietro fino ai tempi della seconda guerra mondiale, quando una delle strategie per vincere era quella di sviluppare sistemi di calcolo che permettessero, per esempio, di decrittare i messaggi del nemico. Fu questa una delle strade intraprese dal Regno Unito, nel tentativo di violare la famosa macchina Enigma usata dai tedeschi per codificare le comunicazioni. Fu così che molti scienziati, fisici, matematici, ingegneri, furono riuniti in una località segreta per costruire un supercalcolatore (come quello della foto sopra, denominato “la bomba”). Tra questi c’era Alan Turing, il padre dell’informatica, del concetto di “algoritmo” e anche dell’intelligenza artificiale. Tra parentesi, l’impresa alla fine riuscì. Per chi vuole approfondire, Turing è il protagonista del famoso romanzo “Enigma” di Robert Harris e dell’omonimo film del 2001 per la regia di Michael Apted. In quei tempi frenetici qualcuno cominciò a pensare alle reti neurali, ossia circuiti e dispositivi in grado di imitare il più possibile il comportamento del cervello umano. Vennero sviluppati dei “neuroni” utilizzando la tecnologia di allora, e si provò a collegarli insieme l’uno con l’altro in cascata e in derivazione, in modo che uno stimolo elettrico ricevuto dal primo si diramasse e si moltiplicasse negli altri, fino a produrre un segnale in uscita. Uno dei precursori di queste macchine “pensanti” fu, sempre in Inghilterra, Wilfred Taylor, che nei primi anni 50 costruì la sua macchina e cominciò a studiarne il comportamento. Ne parla diffusamente un articolo apparso recentemente sulla BBC online, e ripreso dalla rivista The Conversation, a firma di David Beer, un docente di sociologia. In questo articolo l’autore afferma che, fin dai tempi di Taylor, nessuno era in grado di spiegare a fondo il funzionamento di una rete neurale, neppure il progettista. E quelle erano macchine semplicissime, a un solo strato di neuroni. Tuttavia, dato un segnale d’uscita, non era possibile seguirlo a ritroso per scoprire quali nodi l’avessero prodotto. Figuriamoci oggi, che si fa uso di reti a strati multipli, fino a oltre cinquanta. È il concetto della “scatola nera“, che ha un’ingresso e un’uscita ma non se ne conosce il contenuto.

Ma cosa fanno queste reti? Sostanzialmente, imparano. Possono venire addestrate proprio come si addestra un cavallo, con il sistema delle ricompense, che sta anche alla base dell’apprendimento umano. Ci sono anche altri tipi di addestramento, tutti basati sulla risposta dell’ambiente esterno alla “decisione” presa. In questo modo già negli anni ’80 era possibile insegnare a una macchina a riconoscere i codici postali scritti a mano sulla corrispondenza. Ora siamo arrivati al deep learning, termine che evoca gli strati neurali più profondi. Le semplici macchine di un tempo sono state soppiantate da sistemi estremamente complessi, come quello che sta alla base del famigerato Chat-GPT, lo scrittore-conversatore creativo che secondo alcuni potrebbe presto soppiantare gli stessi giornalisti nella stesura di articoli di cronaca o gli studenti nella preparazione di una relazione o una tesi di laurea. Anche le automobili che si guidano da sole si basano su sistemi neurali, che hanno il grande vantaggio, rispetto ai calcolatori tradizionali, di essere adattabili alle circostanze anche in condizioni critiche, come quelle di un guasto parziale. Dove un computer si “pianta”, una rete neurale si aggiusta. Che sia veramente intelligente?

No, anche queste macchine non sono intelligenti, sebbene per certi versi siano inquietanti. Certo, ci sbalordiscono per la rapidità di elaborazione e per la quantità di dati che utilizzano. I sistemi di data mining, ossia la ricerca delle informazioni più disparate nel web, uniti agli algoritmi di correlazione e di associazione trasversale e multidisciplinare, costituiscono innegabili punti di forza. Provate a usare i traduttori multilingue basati sull’Intelligenza Artificiale per convincervene. Tant’è vero, che ormai questa è diventata materia per sociologi piuttosto che informatici. C’è pure chi pensa che ormai occorra mettere un freno, o almeno regolamentare lo sviluppo di questi sistemi, come testimoniato recentemente dalle migliaia di firme autorevoli che chiedono una moratoria alle aziende impegnate in questo settore, in modo che non proseguano finché non possano spiegare il funzionamento profondo delle loro macchine.

Ma, come sostiene l’autore dell’articolo che abbiamo citato sopra, ci stiamo sempre più allontanando dalla possibilità di spiegare il funzionamento dei sistemi di Intelligenza Artificiale, anche dei più semplici. E, sempre di più, i risultati delle applicazioni di IA sono sbalorditivi, come nei casi che si vedono sul web in cui li si utilizza per dipingere quadri d'”autore” o far dire o fare a un personaggio reale cose che non ha mai detto o fatto, producendo “foto” o spezzoni di video fortemente realistici (deepfake) e spesso imbarazzanti. Ma anche questa non può essere considerata intelligenza, neppure a livello basilare, sebbene sia impossibile battere a scacchi un robot addestrato appositamente: bella forza, lui conosce a memoria tutte le partite a scacchi che sono state giocate e documentate negli ultimi decenni e ha una capacità di elaborazione milioni di volte più veloce della nostra.

Ma, nonostante tutto ciò, provate a costruire un robot che sappia cucinare un buon piatto, che sappia anche solo camminare o capire le emozioni umane. E poi ci sono gli errori intrinseci nella stessa idea di base: quella di fargli imparare tutto pescandolo dal web, dalla letteratura, dall’arte, dalla musica e dalla filmografia. Milioni di libri, senza una guida letteraria, contengono moltissima spazzatura, idee sorpassate o sessiste; conoscere tutta la musica prodotta fin qui non ti permette di crearne di nuova, ma di imitare solo quella già esistente, senza capire niente di musica. Il nostro individuo artificiale imparerà presto dalle statistiche che la donna è adatta a svolgere ruoli di segreteria e non di dirigenza, che le persone di etnia diversa da quella dominante sono tendenzialmente più portate alla delinquenza, e così via. Probabilmente imparerà anche che Dio esiste, dato che la stragrande maggioranza degli umani professa una religione. E questo non vuol dire essere intelligenti.

(Consorzio Zero37, aprile 2023)

© 2024 Consorzio zero37 | Tema WordPress: Annina Free di CrestaProject.