Senza scomodare ipotetici alieni che, atterrando sul nostro pianeta o entrando in contatto con noi anche da distanze siderali, abbiano (sempre se pacifici) voglia di dialogare e di conoscerci, il contributo degli antropologi è già ampiamente applicato nell’elaborazione e nell’evoluzione strutturale dei sistemi di intelligenza artificiale, affinché questi possano interagire con noi apparendo a loro volta quanto più umani nelle reazioni e nelle risposte.
Oltre agli assistenti vocali come Siri e Alexa, che eseguono i nostri comandi nell’àmbito dell’“internet delle cose”, numerose sono già nel mondo le persone anziane o affette da problemi medici o neurologici che, anziché ricorrere a un badante umano, hanno a loro disposizione un umanoide robotico. Non si tratta di fantascienza ma di tecnologia già avanzata che – secondo un rapporto recentissimo della società Markets&Markets (che si occupa di consulenze strategiche e analisi macroeconomiche globali) – raggiungerà nel mondo i dodici miliardi di dollari di investimenti nel solo settore dei robot sanitari: alcuni modelli, soprattutto tra Stati Uniti e Giappone, sono già sul mercato, altri, ancora più evoluti, sono in fase di sperimentazione.
Affinché un robot possa sostituire un badante o un infermiere umani nelle loro occupazioni quotidiane e nel contempo venire accettato dal paziente o dall’anziano, sono necessari molteplici e accurati interventi che garantiscano, oltre alla sicurezza dell’assistito e all’accuratezza delle modalità di assistenza per cui la “macchina” è stata ideata, anche quella carica empatica e quella capacità di adattamento e di evoluzione che la macchina, sua sponte, deve essere in grado di ottenere nel tempo. Non si tratta di un’evoluzione in termini meccanici o quantistici, come fare più rapidamente una cosa per cui il robot è progettato, bensì farla più accuratamente e più empaticamente, e soprattutto imparare a farne di altre se necessario senza che da remoto qualcuno, stavolta un umano, glielo insegni. Questo significa semplicemente che il robot in questione fa uso di una “intelligenza artificiale”.
Fino a poco tempo fa, quando si parlava di intelligenza artificiale si faceva riferimento solamente a un ramo molto evoluto dell’informatica che permetteva la programmazione e la progettazione di sistemi (hardware e software) in grado di operare sulla base di determinate caratteristiche considerate tipicamente umane, quali per esempio le percezioni visive, spazio-temporali e decisionali e non solo di capacità di calcolo: quindi elementi come l’intelligenza spaziale, quella sociale, quella cinestetica e persino quella introspettiva, le uniche in grado di insegnare comportamenti non precedentemente programmati, risposte non precedentemente formulate, eccetera.
Ma la rapidissima evoluzione delle tecnologie ha fatto sì che siano già in fase di sviluppo modelli in grado di fornire compagnia agli anziani impegnandoli in conversazioni e aiutandoli in tutte le loro attività; sono assistenti non umani, tuttavia concepiti per apparire quanto più umani possibile anche nelle loro fattezze esteriori, oltre che nelle loro capacità empatiche, nella loro disponibilità, nell’apparire premurosi e gentili, nell’essere in grado di risolvere problematiche sempre nuove senza farsi trovare impreparati nelle azioni della vita quotidiana, quasi più professionali di un analogo “modello umano”.
Un numero immenso di professionisti in varie discipline hanno lavorato e continuano a lavorare gomito a gomito per mettere a punto i paradigmi comportamentali, oltre alla molteplicità di nozioni e informazioni su tutti i campi dello scibile umano, di queste prime intelligenze artificiali che stanno entrando silenziosamente anche nella nostra quotidianità; e tra questi vi sono anche gli antropologi, interessati a riprodurre artificialmente quella “unità teleologica” tra le due sfere (spirituale e materiale) che secondo la filosofia è uno dei paradigmi imprescindibili dell’umanità in quanto tale.
Diceva Heidegger: “La persona non è né cosa, né sostanza, né oggetto… La persona è data in ogni caso come esecutrice di atti intenzionali, raccolti in una unità di senso”. 1)
Ora, c’è chi pensa che l’intenzionalità sia “l’anello mancante tra l’intelligenza artificiale e quella naturale”, 2) cioè quella umana, poiché in nessun modo artificialmente riproducibile; ma comprendere l’intenzionalità in modo funzionalistico come “previsione di comportamenti di sistemi” 3) o come “affermazione di una proprietà della realtà” 4) può diventare anche una sfida all’idea classica di intelligenza, rilevando l’intenzionalità come momento distintivo dell’intelligenza e quindi come elemento riscontrabile in sistemi complessi di intelligenza artificiale, a tal punto da permettere per l’appunto di chiamarli “intelligenza”.
Se quindi fino a qualche decennio fa i quesiti che muovevano la conoscenza umana erano astrazioni come “da dove veniamo?” o “ci sarà vita dopo la morte?” o ancora “siamo soli nell’universo?”, oggi sorgono molte nuove domande che ci riguardano. Una è particolarmente urgente: quella umana è l’unica intelligenza possibile? Le nozioni di machine learning e deep learning non sono dei processi esoterici, frutto di pochi scienziati eletti e forse anche un tantino diabolici, ma un modo per rispondere alle più varie necessità umane; e in questo “indottrinamento” delle intelligenze artificiali gli antropologi non possono che occupare un posto di rilievo, per umanizzare le modalità attraverso le quali le nuove tecnologie devono imparare a interagire con le persone e non solo con le nozioni apprese dalla realtà circostante.

L’intelligenza artificiale (anche nel suo aspetto informe di circuiti integrati, memorie di sistema e linee di programmazione e routine, come alla fine è una delle più famose di esse, ChatGPT) deve poter coniugare psicologia cognitiva e filosofia, sociologia e politica, scienza e coscienza e non solo scienza meccanica (hardware) e processi informatici (software). I problemi degli esseri umani che si rivolgono, cercando risposte, a questa tipologia di intelligenza artificiale (nascosta ovviamente anche negli algoritmi funzionali a Google o ad altri motori di ricerca e applicazioni) sono aspetti urgenti esattamente come quelli che avevano gli uomini della preistoria per mantenere in vita il fuoco o per uccidere in una battuta di caccia gli animali di cui cibarsi senza rimanere a loro volta uccisi.
Sono problemi che non è possibile ignorare e “che possono essere compresi davvero soltanto entrando in dialogo con questi nuovi, sorprendenti, abitanti terrestri che chiamiamo intelligenze artificiali”. 5)
La questione è tutt’al più riconoscere, antropologicamente, alle macchine intelligenti (sia a quelle di forma robotica sia a quelle che non esprimono un’apparenza visiva), e in prospettiva non necessariamente intelligenti nell’odierno stato di sviluppo, lo status di soggetti con intelligenza e intenzionalità, quindi anche con delle capacità morali, pur non essendo persone umane (lo stesso discorso varrebbe del resto per gli animali più evoluti). Sulla base di tale differenza, sarà possibile non solo poter ammettere ogni possibile evoluzione delle scienze collegate all’intelligenza artificiale, ma soprattutto distinguere tra la “tipologia” umana di intelligenza e intenzionalità, e quella artificiale, senza dover negare queste dimensioni ai sistemi intelligenti.
Come ha sottolineato Markus Krienke nella sua relazione tenuta in un convegno a Roma sull’intelligenza artificiale, “per questa sua costituzione antropologica, l’uomo certamente non può transumanisticamente diventare completamente ‘infomorfo’, per cui sarà superata la sua limitatezza, debolezza e infine anche la morte, o perlomeno qualora tecnicamente avvenisse egli non sarebbe più persona. A livello delle possibilità tecnologiche non si può certamente escludere nessuno sviluppo (in)immaginabile in futuro, ma antropologicamente siamo obbligati (in senso kantiano) a definire e coltivare questa differenza non più aristotelica, ma – proporrei di chiamarla – ‘personologica’”. 6)
Nessun ingegnere, nessun informatico potranno mai risolvere da soli queste problematiche, ma solo condividendone la responsabilità progettuale in una prospettiva comune con filosofi, sociologi, psicologi, neurobiologi, linguisti, storici, scienziati di ogni disciplina, nonché antropologi e (perché no?) teologi.

N O T E

1) Essere e tempo, trad. it. Milano 2005.
2) Evandro Agazzi, Operazionalità e intenzionalità: l’anello mancante dell’intelligenza artificiale, in AA.VV. Natura Umana Natura Artificiale, Milano 2010.
3) Daniel Dennett, L’atteggiamento intenzionale, Bologna 1993. Dennett vede comunque un pericolo nelle macchine che svolgono una proporzione sempre crescente di compiti di base (percezione, memoria e calcolo algoritmico), vista la tendenza delle persone ad antropomorfizzare tali sistemi e attribuire loro poteri intellettuali che non possiedono.
4) Jerry Fodor, Psicosemantica. Il problema del significato nella filosofia della mente, Bologna 1990.
5) Michele Laurelli, Dialoghi con una Intelligenza Artificiale, Ripalimosani 2020.
6) In Intelligenza artificiale ed antropologia: la questione dell’intenzionalità.