Intelligenza Artificiale tra mito e realtà



Intelligenza Artificiale è la fortunata locuzione consegnata alla storia nel 1956 da un giovane matematico statunitense, John McCarthy, che assimila un tratto distintivo dello statuto antropologico umano (l'intelligenza appunto) al prodotto della tecnica, ma non è altro che la simulazione artificiale della sindrome dell'idiota sapiente (spettro autistico).

Il nostro presente ipertecnologico e iperconnesso è dominato dalla Rivoluzione Industriale 4.0. I nativi digitali (il nuovo che avanza) e i sopravvissuti immigrati digitali (il vecchio in via di estinzione) sono praticamente obbligati a relazionarsi, e a competere, con presunti agenti intelligenti, con sistemi robotici provvisti di Intelligenza Artificiale ai quali viene riconosciuto lo status giuridico di personalità elettronica.

Nel corso dei secoli le comunità umane si sono sempre avvantaggiate dalla introduzione di nuove tecnologie, erano le comunità stesse che ne facevano richiesta, allo scopo di garantire o migliorare il soddisfacimento dei propri bisogni. Oggi le cose stanno diversamente. La tecnologia è diventata autoreferenziale mentre l’invasività e la pervasività delle nuove tecnologie non è affatto paragonabile a quella delle tecnologie precedenti. Tutto ha inizio con il processo di integrazione uomo-macchina, innescato dalla Rivoluzione Industriale 1.0. (1)

La Rivoluzione Industriale 1.0 (Inghilterra, seconda metà del XVIII sec., meccanizzazione della produzione nel settore tessile e metallurgico, invenzione della macchina a vapore) coincide con l’introduzione dei sistemi meccanici nei cicli e nella filiera produttiva e con l’implementazione di un processo di integrazione uomo-macchina che, in conformità ai postulati dell’Illuminismo, contempla l’idea di una umanità suscettibile di correzioni e di adeguamenti, che possono essere indotti sia naturalmente che artificialmente, allo scopo di rendere le caratteristiche e le prestazioni antropiche funzionali alle caratteristiche e prestazioni dei sistemi meccanici [1].

A partire dalla seconda metà del XIX sec. (diffusione del modello Positivista, Rivoluzione Industriale 2.0) l’affermarsi del ricorso ai sistemi meccanici nel ciclo produttivo (fabbrica) conferisce alla organizzazione del lavoro una gerarchia di valori di tipo piramidale che vede:

  • al vertice il capitale tecnologico (sistemi meccanici, personale tecnico specializzato, scienziati-ricercatori), difficilmente rimpiazzabile.
  • alla base il capitale umano (mano d’opera/forza lavoro non qualificata e a basso costo), facilmente rimpiazzabile.

I traguardi scientifici, tecnologici e imprenditoriali che accompagnano la Rivoluzione Industriale 2.0, offrono alla borghesia del vecchio e nuovo Mondo lo spunto per rilanciare con forza il suo diritto-dovere di migliorare l’umanità (come auspicavano gli illuministi) attraverso una progressiva selezione e/o modificazione e/o integrazione e/o sostituzione, naturale e/o artificiale, dell’essere umano o di sue parti (scientismo,Francia, seconda metà del XIX sec.; social-darwinismo, Inghilterra, seconda metà del XIX sec.).

Una prospettiva che trovò nelle neonate (seconda metà del XIX sec.) idee pseudoscientifiche e neo-colonialiste dell’Eugenetica (fit vs unfit, adatti vs non-adatti),la sua massima e più radicale espressione. Tanto da legittimare in tutto l’Occidente e nelle sue colonie una spirale violenta e perversa di atti contro l’umanità che andarono dalla sterilizzazione dei non-adatti agli internamenti manicomiali dei diversi, dalla selezione della razza secondo le regole adottate nella selezione del bestiame alle epurazioni di massa, trascinando il mondo nel baratro di due guerre mondiali (XX sec.).

L’esperienza maturata nel corso della seconda guerra mondiale al servizio dell’Office of Scientific Research and Development (OSRD), futura Defence Advanced Research Projects Agency (DARPA), agenzia militare governativa del Dipartimento della Difesa degli Stati Uniti d’America, diretta da Vannevar Bush (1890-1974), nota per avere dato vita al Manhattan Project (che rese possibile la realizzazione del primo ordigno nucleare), consente a due scienziati, il matematico, ingegnere e criptoanalista americano Claude Shannon (1916-2001) e il matematico, filosofo ed esperto di statistica americano Norbert Wiener (1894-1964), di gettare le basi nell’immediato dopoguerra di due nuove discipline scientifiche, rispettivamente la Teoria dell’Informazione (Information Theory, IT) e la Cibernetica, che imprimono una svolta decisiva alla storia mondiale contemporanea, aprendo le porte alla rivoluzione informatica (fine anni ’80 del XX sec., Rivoluzione Industriale 3.0) e all’Era dell’Intelligenza Artificiale (locuzione da molti giudicata paradossale, un metalogismo, che assimila un tratto distintivo dello statuto antropologico umano al prodotto della tecnica) [2].

Una svolta epocale che l’antropologo americano Frank Rose stigmatizza con queste parole (1984): “L’informatizzazione della società … è stata essenzialmente un effetto collaterale della informatizzazione della guerra“.

In particolare, Shannon e Wiener lavorarono separatamente alla ottimizzazione dei sistemi di puntamento automatici antiaerei, ovvero alla ottimizzazione delle performance dei vari componenti (di solito un elaboratore per i dati dell’arma, un calcolatore per bersagli in movimento ed un radar, più il soldato), che operano per assistere l’arma nell’operazione di puntamento e ingaggio del bersaglio.

L’idea che animava il lavoro dei due scienziati era ottenere il massimo di efficienza, di affidabilità e di efficacia operativa in combattimento, integrando l’uomo (soldato) e la macchina (armamento) in un unico sistema, in cui l’elemento umano e l’elemento meccanico si fondessero, da un punto di vista ingegneristico, in un’unica struttura.

La filosofia vannevariana ispiratrice dell’OSRD era pragmatica, semplice ed efficace, tutti i programmi scientifici e di ricerca promossi dall’agenzia sarebbero dipesi da una stretta collaborazione tra mondo accademico, industriale e militare, una collaborazione che Vannevar Bush a posteriori definì (1947) academic/industrial/military iron triangle, l’asset che ha fatto degli USA il leader mondiale nel campo della ricerca scientifica e delle innovazioni tecnologiche. Primato che a tutt’oggi resta in mano statunitense.

Intelligenza Artificiale (IA, meglio nota con l’acronimo AI, dall’inglese Artificial Intelligence) è la fortunata locuzione, coniata nel 1956, in piena Guerra Fredda, da un giovane matematico statunitense di nome John McCarthy, che tiene a battesimo una nuova stagione dello scientismo novecentesco. Una nuova stagione fortemente invocata dalla prospettiva scientista maturata negli ambienti militari statunitensi nel corso della seconda guerra mondiale, riassumibile così: ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza umana può in linea di principio essere descritta in modo tale che una macchina può essere costruita per simularla.

Obiettivo: progettare sistemi artificiali che esibiscano le caratteristiche associate all’intelligenza umana, come la comprensione del linguaggio, l’apprendimento, il ragionamento logico, la risoluzione dei problemi ed altri aspetti fattorizzabili legati al comportamento sia animale che umano.

La AI diviene così “lo studio e la progettazione di agenti intelligenti“, dove per agente intelligente si intende un sistema artificiale (ad es. una macchina automatizzata, robot), progettato e realizzato per simulare (Intelligenza Artificiale) alcuni aspetti comportamentali animali e umani, che si interfaccia con l’ambiente esterno grazie a:

  • uno o più sensori (ad es. meccanici, di temperatura, di prossimità, induttivi, ottici, di movimento) che captano una determinata gamma di segnali ambientali e li traducono in sequenze di segnali elettromagnetici che vengono trasmessi (anche su lunghe distanze, grazie a infrastrutture di telecomunicazione via cavo e via antenna, terrestri e satellitari) a
  • un elaboratore (ad es. bit-computer, quantum-computer, dispositivi digitali in genere), che grazie al programma del software installato ed eventualmente al cloud computing, ovvero alla nuvola informatica, aperta o chiusa (Cyber Physical System), implementata mediante infrastrutture fisiche dette data center (i luoghi dove vengono installati i server), dove sono condivise le esperienze (dataset) generate da tutti i sensori, elaboratori ed effettori (incluso l’attore umano) messi in rete nel cyberspace, li processa, li classifica e istruisce una serie di dati in uscita (output) che vengono trasmessi (anche da remoto) al
  • sistema effettore, per essere traslate in una serie di azioni (meccaniche, elettromagnetiche o di altro genere) che consentono al sistema artificiale alias agente intelligente di svolgere le funzioni per le quali è stato programmato e realizzato.

Il termine intelligenza che compare nella espressione coniata da McCarthy è un retaggio della terminologia impiegata da uno dei pionieri della teoria dell’informazione, Harry Nyquist (1889-1976) della American Telephone and Telegraph Company (AT&T). Nel 1924 Nyquist pubblica un articolo sul Bell System Technical Journal dal titolo Certain Factors Affecting Telegraph Speed, dove tratta dei fattori che condizionano la “maximum speed of transmission of intelligence”. Con il termine intelligenza Nyquist si riferisce alla componente statisticamente determinata e decifrabile di un segnale aleatorio (in altre parole si riferisce ai dati immessi, veicolati e resi disponibili da un segnale analogico, che Nyquist qualifica come “the number of characters, representing different letters, figures, etc.” trasmessi in un certo arco di tempo), la cui trasmissibilità (senza perdita di intelligenza ovvero di dati) da un dispositivo trasmittente (coder) ad uno ricevente (decoder) dipende dal grado di risoluzione dell’incertezza (associata al rumore intrinsecamente generato dal mezzo trasmissivo o dagli apparati coinvolti) ottenuto nella trasmissione del segnale.

Quindi niente a che vedere con l’intelligenza umana, ma solo il fatto di avere scelto questo termine intrigante per qualificare la trasmissione di un segnale, è bastato perché la provocazione venisse raccolta qualche decennio più tardi da un matematico ed esperto di IT del secondo dopoguerra, McCarthy appunto, che lo ha trasformato nell’icona del XXI secolo. Una icona che impallidisce di fronte all’evidenza. Nella migliore delle ipotesi, infatti, le performance dei cosiddetti agenti intelligenti sono e resteranno una simulazione delle particolari abilità manifestate da alcuni individui affetti dalla sindrome del savant (savant syndrome), o sindrome dell’idiot savant, dell’idiota sapiente, dove con idiota ci si riferisce a un individuo (generalmente di sesso maschile) affetto da disturbi della sfera affettiva e da ritardi cognitivi e mentali, associati allo sviluppo di una abilità particolare e sopra la norma in un settore specifico, tipicamente la capacità di calcolo e di memoria (eudetica). Questo è tutto quello che un agente intelligente può e potrà aspirare a fare: simulare artificialmente la sindrome del savant (ASSS, Artificial Simulation of the Savant Syndrome).

Tutta la narrazione corrente riguardante la futura realizzazione di macchine antropomorfe intelligenti dotate di una coscienza artificiale è aria fritta, come quella che aleggia nella cucina di un ristorante cinese.

Ma non si può parlare di Intelligenza Artificiale senza parlare del successo e della diffusione che hanno avuto nel corso del XX secolo le scale di misurazione del Quoziente d’Intelligenza o test del QI (IQ test, Intelligence Quotient test). Un quoziente di intelligenza, o QI, è un punteggio derivato da uno dei diversi test standardizzati progettati per valutare l’intelligenza. Il termine “QI”, dal tedesco Intelligenz-Quotient, fu ideato dallo psicologo eugenista tedesco William Stern (1871-1931) nel 1912 come metodo proposto per valutare i test di intelligenza dei bambini, esprimendo un punteggio come un quoziente di “età mentale” e “età cronologica“.

L’idea di misurare l’intelligenza deriva dalla psicometria, la scienza che si occupa della teoria e della tecnica della misura in psicologia, introdotta dal fondatore dell’Eugenica, Francis Galton (1822-1911), per misurare le differenze antropometriche tra classi superiori e inferiori. Galton infatti sosteneva che, a causa dell’eredità e a prescindere dall’educazione, gli aristocratici bianchi fossero intellettualmente superiori agli altri umani.

A differenza di Galton, lo psicologo francese Alfred Binet (1857-1914) ritenne di dare più peso all’educazione, sostenendo che l’intelligenza potrebbe essere migliorata. Binet e il collega psicologo francese Théodore Simon (1872-1961) in seguito svilupparono il Test Binet-Simon, il primo test per la misurazione dello sviluppo intellettuale o età mentale dei bambini (francesi) ritenuti bisognosi di un supporto educativo differenziato.

Nel 1910 lo psicologo eugenista americano Henry H. Goddard (1866-1957) pubblicò una traduzione in inglese del Test Binet-Simon, suscitando l’interesse del movimento eugenetico statunitense, che ne caldeggiò la rielaborazione, avvenuta ad opera dello psicologo eugenista americano Lewis Terman (1877-1956), per essere esteso alla misurazione dell’intelligenza in generale.

Durante la Prima Guerra Mondiale lo psicologo eugenista statunitense Robert Mearns Yerkes (1876-1956) venne incaricato dalla American Psychological Association, su mandato del Ministero della Difesa americano, di presiedere il Committee on the Psychological Examination of Recruits, composto da un team di 40 psicologi, tra i quali compariva anche H. H.Goddard, con il compito di selezionare le reclute ricorrendo a un test di intelligenza approntato ad hoc. La Commissione mise a punto due test dell’intelligenza in perfetto stile eugenetico, l’Army Alpha test per il personale alfabetizzato e l’Army Beta test per gli analfabeti. I test vennero somministrati a 1.726.000 reclute della US Army e il risultato fu che lo 0,5% delle reclute (circa 86.000) venne dimesso come mentalmente inferiore, mentre Yerkes avrebbe preferito aver dimesso il 3% i cui risultati mostravano un’età mentale inferiore ai 10 anni.

L’esperienza militare degli IQ test aveva sdoganato il loro impiego per la misurazione dell’intelligenza su larga scala, in particolare in ambito scolastico (l’allora sponsor dei test del quoziente d’intelligenza, il National Research Council Psychology Committee, anch’esso presieduto da Yerkes, descrisse l’IQ test somministrato nelle scuole come “the application of the army testing methods to school needs”).

Ma sarà solo verso la fine degli anni ’40 del secolo scorso che uno psicologo eugenista rumeno nazionalizzato americano David Wechsler (1896-1981) metterà a punto le scale di misurazione dell’intelligenza tutt’ora in uso: la Wechsler Intelligence Scale for Children (WISC, 1949), seguita dalla Wechsler Adult Intelligence Scale (WAIS, 1955) e per ultima dalla Wechsler Preschool and Primary Scale of Intelligence Test (WPPSI, 1967), ideata per misurare l’intelligenza in bambini di età compresa tra i due anni e sei mesi e i sette anni e sette mesi.

È proprio a quest’ultima scala di valutazione che nel 2013 ha fatto ricorso un team di esperti di AI della Università dell’Illinois a Chicago (UIC). Il team ha ideato e condotto uno studio – Artificial and natural knowledge researchers IQ-tested one of the best available artificial intelligence systems and learned that it’s about as smart as the average 4-year-old (2) – il cui scopo era di valutare il grado di “intelligenza” (sigh!) del super elaboratore ConceptNet 4 (la quarta generazione di ConceptNet, una grande rete semantica sviluppata dal progetto Open Mind Common Sense (OMCS) al MIT). All’agente intelligente ConceptNet 4 è stata somministrata una parte del Wechsler Preschool and Primary Scale of Intelligence Test, risultato: ConceptNet 4 avrebbe un IQ paragonabile a quello di un bambino di quattro anni.

In perfetto stile eugenetico, viene rifatto il look a una tristemente collaudata visione adulto-metrica, sessista e razzista secondo la quale “il neonato umano è un essere decerebrato dotato di riflessi” (Paul Emil Flechsig, 1847-1929), e “il cervello del negro possiede un midollo spinale del tipo trovato nei bambini e nelle donne, e oltre a ciò, si avvicina al tipo di cervello trovato nelle scimmie antropomorfe superiori” (Emil Huschke, 1797-1858). I nuovi eugenisti tornano a screditare il livello cognitivo di un bambino associando il suo quoziente di intelligenza non più a quello di un essere decerebrato o di una scimmia antropomorfa, ma a quello di un elaboratore, alias agente intelligente.

E nel prossimo futuro cosa ci attende?

Un recente studio (3) (2019) condotto dal Biotechnologies for Health and Human Performance Council e rilasciato dal U.S. Army’s Combat Capabilities Development Command (Comando Statunitense per lo Sviluppo delle Capacità di Combattimento dell’Esercito) prevede che entro 10-30 anni da adesso (2019) le Forze Armate statunitensi e di altre nazioni disporranno di soldati cyborg.

Secondo questo studio i progressi tecnologici attuali e prossimi consentiranno a breve e medio termine la creazione di combattenti potenziati con bio-tecnologie aumentative oculari, uditive, muscolari e neurali. “Attraverso una convergenza di biologia, ingegneria e Intelligenza Artificiale“, spiega il nuovo rapporto militare, “saremo in grado di migliorare gli esseri umani in un modo che cambia il modo in cui vedono, ascoltano, pensano, comunicano e si muovono. Impianti neurali eso o endo-cranici predisposti per l’interfacciamento cervello-computer (BCI & BMI) consentiranno una perfetta interazione tra individui e risorse secondarie (macchine-armamenti). Questo controllo verrebbe esercitato da un individuo-soldato potenziato su droni, sistemi d’arma e altri sistemi remoti gestiti a breve-media-lunga distanza.

L’impatto previsto sulla società dalla creazione di un mercato diversificato per il commercio di capacità in stile cyborg-soldier, verrà mitigato e guidato almeno in parte dalle accattivanti applicazioni in ambito medico-sanitario, che acclimaterà le persone a una realtà iper-tecnologica gravida di sfide etiche, antropologiche, legali e sociali senza precedenti.

Riferimenti:

(1) Vedi: Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL).

(2) University of Illinois at Chicago, Computer as smart as a 4-year-old? Researchers IQ test new artificial intelligence system, ScienceDaily, 15 July 2013

(3) CCDC CBC-TR-1599, Cyborg Soldier 2050: Human/Machine Fusion and the Implications for the Future of the DOD

Riferimenti []:

[1] Messori, C. (2018) Dall’Uomo-Macchina Illuminista alla Robotizzazione della Società, Il Minotauro, 1(1), Persiani Editore, Bologna, Italy

[2] Messori, C. (2016) Intelligence vs Artificial Intelligence: The King is Naked, Open Access Library Journal, 3(11)

Claudio Messori / e-mail: messori.claudio(at)gmail.com