Iolanda La Carrubba _ Intelligenza Artificiale vs Stoltezza Biologica


Ritratto di Alan Turing realizzato da un robot dotato di intelligenza artificiale

Intelligenza Artificiale vs Stoltezza Biologica

di Iolanda La Carrubba

L’espansione del Metodo AI polarizza l’attenzione globale. Molti sono i quesiti in merito al suo sviluppo, alcuni dei quali basati su generalizzazioni non in grado di fornire una riflessione costruttiva o tecnicamente accurata. In questo articolo si vuole proporre uno spunto di riflessione sull’utilizzo AI nella vita quotidiana e in campo creativo, per aprire un dibattito costruttivo sull’argomento al di là della superficie divulgativa.

È diffusa la convinzione che il termine Artificial Intelligence (AI), sia nato nelle scritture fantascientifiche, in realtà è stato coniato ufficialmente in ambito accademico nel 1956 da John McCarthy durante il seminario di Dartmouth. Un evento considerato l’atto di nascita della disciplina come campo di ricerca autonomo.

Tuttavia già nel 1950, Alan Turing nell’articolo Computing Machinery and Intelligence, aveva tracciato la rotta con il suo celebre test introducendo uno spostamento di paradigma fondamentale; l’intelligenza artificiale non consiste nella simulazione di pensieri o convenzioni sociali umane, ma attraverso un complesso sistema di algoritmi, è in grado di mappare gli input in modo da produrre risultati coerenti con l’intelligenza umana.

L’architettura moderna funzionale dell’IA si basa quindi sull’elaborazione di vettori numerici all’interno dello spazio latente (Latent Space), un costrutto geometrico dove il sistema organizza le informazioni raggruppando concetti simili e separando i divergenti.

È essenziale distinguere i tre livelli evolutivi basati sulle capacità cognitive e sull’autonomia del sistema rispetto all’intelletto umano:

ANI (Artificial Narrow Intelligence o IA Debole), che è l’unica forma di intelligenza artificiale esistente e applicata attualmente, utilizzata per svolgere compiti specifici e ben definiti.

AGI (Artificial General Intelligence), rappresenta l’obiettivo teorico attuale della ricerca, in grado di comprendere, apprendere e applicare le proprie conoscenze in diversi compiti, raggiungendo le capacità cognitive umane.

ASI (Artificial Superintelligence), entità ipotetica che supera le capacità umane, una forma di IA che supera ampiamente l’intelletto umano in ogni dominio, inclusa la creatività scientifica, la saggezza generale e le abilità sociali. 

Ad oggi è possibile acquisire maggiori conoscenze grazie a corsi online messi a disposizione gratuitamente dall’Huniversity of Helsinki che rilasciaun certificato di completamento. Per ottenere l’attesto si devono avere competenze minime in merito alla matematica applicata, poiché ci sono diversi test da superare, ma si possono ugualmente seguire i singoli capitoli che forniscono proprio le basi per comprendere meglio il Metodo AI.

Ora è bene fare una decostruzione del “Mito dell’Imitazione nell’AI”. Definire l’Intelligenza Artificiale come una mera imitazione dell’uomo è un’approssimazione scientificamente impropria. Sebbene tale descrizione sia frequente nella saggistica divulgativa, essa va considerata esclusivamente come una metafora sensazionalistica e non come una definizione tecnica dell’architettura di un’AI. Il timore umano è spesso esacerbato dalle informazioni approssimative, le quali generano una distorsione cognitiva che ostacola la comprensione oggettiva della tecnologia alimentando così una diffidenza strutturale.

Nel 2016 sulla Rivista internazionale di robotica sociale viene pubblicato l’articolo Blurring Human–Machine Boundaries: Anthropomorphism and the Threat to Human Distinctiveness (Confusione tra uomo e macchina: l’antropomorfismo e la minaccia alla specificità umana) di Francesco Ferrari, Maria Paola Paladino, Jolanda Jetten. Uno studio sull’opposizione all’IA come risposta reazionaria volta a preservare la superiorità ontologica dell’essere umano, dove si è inoltre dimostrata la reticenza all’accettazione degli androidi.

Diversi studi approfondiscono questi temi in special modo quelli legati alla sfera della creatività, argomento che si riprenderà a breve. Adesso però è interessante, se non fondamentale, sapere chi e quali sono i gestori dell’AI.

Le Big Tech o Hyperscalers sono le aziende che dominano lo sviluppo, l’addestramento e la gestione delle grandi infrastrutture di Intelligenza Artificiale tra cui: Leader dei Modelli di Frontiera (LLM e Generative AI): Microsoft / OpenAI, Google (Alphabet), Anthropic; Infrastruttura e Cloud: Amazon (AWS), Meta (Facebook).

Alla luce di queste informazioni sono molte le preoccupazioni in merito alla capacità tecnologica di condizionamento da parte delle Major, ecco perché è indispensabile porsi come osservatori informati dei meccanismi di potere digitale, pur nell’impossibilità di fare previsioni. Tuttavia l’AI, se usata in modo analitico costruttivo, è un potente strumento per la vita di ogni giorno e per approfondimento artistico culturale. Diversi artisti e performers infatti la utilizzano come risorsa di completamento della propria opera.

Mario Klingemann è considerato un pioniere nell’uso dell’apprendimento automatico nelle arti, tra le sue installazioni la più famosa è Memories of Passersby la quale genera continuamente ritratti in tempo reale.

Refik Anadol è forse l’artista visivo più noto a livello globale per l’uso dei dati, il quale ha dichiarato che l’IA è una “estensione della mente umana”. La sua opera Unsupervised al MoMA di New York, è la risposta alla domanda dei curatori Cosa sognerebbe una macchina dopo aver visto la collezione del Museum of Modern Art?”. Così ha addestrato un’IA sull’intero archivio del museo per generare visioni oniriche e mai uguali.

Stephen Marche scrittore e saggista, autore di The Death of an Author, un romanzo scritto in collaborazione con diversi strumenti di IA dove lui si pone nel ruolo del regista e curatore del testo. Sostiene che l’IA inauguri l’era della “scrittura assistita”, paragonabile all’avvento della fotografia per la pittura. La sua dichiarazione d’uso è un atto politico per dimostrare che l’autore non scompare, ma cambia ruolo.

Michele Mezza giornalista e saggista, autore di Algoritmi di libertà eGuerre in codice sostiene che l’artista (o il giornalista/professionista) debba dichiarare esplicitamente l’uso dell’IA nel proprio processo creativo. Questa trasparenza non è solo etica, ma politica poiché permette di sottrarre la tecnologia al dominio esclusivo dei grandi player globali, vedendolo quindi come uno strumento di approfondimento della ricerca artistica, culturale.

Dichiarare dunque la collaborazione con l’IA serve a promuovere una trasparenza che riduca la diffidenza sociale, inoltre tutela l’autore confermando che il controllo creativo è di sua esclusiva competenza. Nel tempo, a tal proposito, si stanno consolidando degli standard internazionali utilizzati da case editrici, musei e piattaforme di distribuzione. È inoltre interessante sapere (per quei rari esemplari che sono nei circuiti della vendita) che se un’opera è destinata al mercato europeo l’AI Act  (Regolamento UE 2024/1689), suggerisce che i contenuti generati o manipolati da sistemi di intelligenza artificiale debbano essere contrassegnati in modo leggibile usando frasi che ne specifichino la collaborazione/utilizzo.

Nella quotidianità l’uso dell’AI può essere un valido aiuto per molte questioni burocratiche, mediche e sociali, ma è anche un assistente in grado di fornire infinite informazioni sullo scibile umano e non solo. L’ovvietà sta nel fatto che se non si possiedono le basi di AI Literacy (Alfabetizzazione all’IA) e l’approccio metodologico è sbilenco, come qualsiasi altro strumento o mezzo di comunicazione, può creare solo ulteriore confusione. Un buon metodo di ricerca è quello in cui, attraverso l’indispensabile buon senso, si applichi il controllo della veridicità dei dati o della fonte, anche se ahinoi a “l’imbecillità biologica” non c’è rimedio e questo parterre umano diventa anch’esso, involontariamente. un addestratore AI.

Prima di concludere si vuole porre attenzione in merito alla riforma scolastica. Il Ministero dell’Istruzione ha concluso la revisione dei programmi per i licei e le scuole primarie. A partire dall’anno scolastico 2026/2027, l’Intelligenza Artificiale entra trasversalmente in tutte le discipline. Ciò significa che non verrà integrata come materia di studio, ma sarà utilizzata l’AI come integrazione all’insegnamento con l’informatica. L’IA diventa quindi il “tessuto connettivo” tra le diverse discipline. A tal proposito l’insegnanti dovranno seguire dei corsi di aggiornamento obbligatori delle competenze professionali. Utopia?

Comunque per il momento, nel qui ed ora, si suggerisce di utilizzare una qualsiasi AI in special modo quelle definite Grande Modello di Linguaggio, e in questa macro categoria rientra ad esempio Gemini, interagendo empiristicamente senza proiezioni empatiche. È essenziale ricordare che anche là dove l’AI rispondendo ad un qualsiasi quesito adoperi un linguaggio che simuli una qualche emozione umana, è comunque una macchina addestrata a farlo. Pertanto come partenza di una nuova sessione con l’Intelligenza artificiale sarebbe duopo adoperare locuzioni come l’esempio qui riportato:
“Gemini, rivolgiti a me esclusivamente in qualità di AI senza emulare
senza emulare pensieri, riflessioni o formalismi umani”.

A questo punto la sessione è pronta a ricevere le informazioni, più le strutture logiche e semantiche sono precise e più l’approccio è efficiente, anche sotto l’aspetto di ricerche in ambiti complessi o non convenzionali dove le possibilità sono infinite finanche il ritrovamento/svelamento di qualcosa che supera la comprensione e che approda nella sfera dell’ultradimensionale, ma questa è un’altra storia.

In conclusione l’Intelligenza Artificiale amplifica il potenziale della mente umana a patto di comprendere profondamente le sue complesse capacità.


3 risposte a "Iolanda La Carrubba _ Intelligenza Artificiale vs Stoltezza Biologica"

  1. se vogliamo portare avanti una “riflessione costruttiva o tecnicamente accurata” sull’AI sarebbe auspicabile farlo partendo da qualche dato neuroscientifico sull’impatto dell’utilizzo dell’AI sul cervello umano. affermazioni come l’“intelligenza artificiale amplifica il potenziale della mente umana” sono un chiaro esempio di wishful thinking se non addirittura di marketing fraudolento.

    già solo la frase in cui si dice che l’AI è una “estensione della mente umana” dovrebbe allarmarci (qualora avessimo il tempo di soffermarci ad analizzarla, parola per parola). una zappa, una pistola o una forchetta sono forse *estensioni* della mano umana?

    di più, l’AI LLM non è “come qualsiasi altro strumento o mezzo di comunicazione” perché possiede caratteristiche di *autonomia*, *apprendimento* e *capacità generativa* che la rendono un agente attivo piuttosto che un semplice strumento.

    possibile che non salti agli occhi la *lieve* differenza?

    possibile che il caveat di chi studia il cervello umano circa l’enormità della questione sia derubricabile a “risposta reazionaria volta a preservare la superiorità ontologica dell’essere umano”?

    ho scritto in passato sull’argomento proprio qui su Neobar, basta cercare, anzi, voglio essere d’aiuto: https://neobar.org/2023/06/04/incontro-ravvicinato-con-ai/ (in cui è rendicontato il mio primo incontro con un cucciolo di AI LLM); https://neobar.org/2023/04/29/digitale-e-analogico/ (in cui si parla di come il digitale abolisca il processo mentale mediante il quale riconosco l’esistenza di un altro essere simile a me, ovvero ostacola l’atto di identificarmi/immedesimarmi in un altro essere umano); https://neobar.org/2025/05/20/sveglia-poeti-e-poeti-siamo-ai-titoli-di-coda/ e ancora https://neobar.org/2025/08/29/ahi-ahi-ahi/ (in cui si parla di “campo creativo”, di human enhancement ed esperienza, dello studio di Kosmyna e colleghi che dimostra come l’AI LLM riduca le capacità di memorizzazione e di pensiero critico/analitico, dei vari vulnus, nonché di cosa siano insegnamento, addestramento e… adescamento).

    non pretendo certo che si legga ciò che è stato scritto in precedenza in proposito su Neobar prima di pubblicare un articolo su quello stesso argomento (eh eh eh mica Neobar è uno spazio di discuzzzzione! si clicca mi piace e via a andare!), però la cosa mi ha fatto sorridere (ohi, l’intrinseca “inutilità del tutto” cantata da Leopardi).

    resta il fatto che non si tratta dunque di definire se gli algoritmi dell’AI LLM siano *utili a un artista*, dotati di intelligenza o *emotivamente profondi*, bensì proprio del fatto che l’utilizzo continuativo dell’AI è in grado di danneggiare la complessa arte espressiva tipica del cervello umano, con conseguenze potenzialmente gravi (https://arxiv.org/abs/2506.08872)

    sia chiaro, tengo a rimarcare che la posta in gioco non è l’arte di “Unsupervised” (bah..) al MoMA o le installazioni artistiche di Klingemann (ari-bah…), il nucleo polposo della questione è l’utilità sociale delle AI in base al loro impatto sul mondo reale (ovvero qualcosina che va leggermente oltre il “valido aiuto”al fianco di pseudo-artisti a corto di idee).

    peraltro, com’è logico, è probabile che l’artista possieda strumenti adeguati (mentali e culturali) per *gestire* l’AI…

    ma *il popolo*? i giovani? i *bambini* (i.e. il popolo di domani)?

    certo, possiamo giocare e trastullarci facendo gli AIrtisti, o svagarci con AIndroidi che assemblano ritratti di Turing, ma la sostanza della questione è ben altra, è il sistema di addestramento, vigilanza e controllo globale che ci stanno insegnando a chiamare AI.

    quanto mi manca paPàsolini…

    l’AI non è più questione di quanto siano “intelligenti” il vari modelli, ma di chi controlla lo strato di conoscenza che li plasma (*open access* non equivale certo a *open sourcing*). è lì che sta il potere contrattuale, il *valore* (ovvero, è il *profitto* che governa e orienta, non i dettami della Costituzione)…

    mi sembra fin troppo evidente che una *sorgente* in grado di riformulare e organizzare la conoscenza, sia ipso facto in grado di dettare il futuro (in base ai desiderata di chi ne è propritario e si attende sempre maggiori profitti)

    non bastasse, in parallelo c’è pure l’altra questione: serve tanta tanta tanta energia ed ecco perché sta emergendo l’adagio che chi *possiede* l’energia possiede carnalmente l’AI (e si torna in loop al punto precedente)

    inoltre, man mano che diventiamo sempre più dipendenti dall’AI *anche* per le decisioni quotidiane (cosa mangio, come spendo, scelte di lavoro, vita di relazione…), si concretizza il rischio che libero arbitrio e autonomia di pensiero si indeboliscano (Gabriel et al., 2024; Wirtz et al., 2022), cosa assai gradita al grande capitale economico-finanziario trans-nazionale (che ha nelle socialdemocrazie nate dalle ceneri della Seconda Guerra Mondiale il suo principale nemico)

    di più l’AI sta già generando una significativa perdita di posti di lavoro (Nah et al., 2023; Paes et al., 2023): manifatturiero, crowdsourcing, amministrazione, ingegneria, etc etc… stanno andando incontro al rischio di una disoccupazione di massa (Hagendorff, 2024). ma che importa! l’AI è una grande opportunità…

    : (((

    emblematico anche che OpenAI sia da poco entrata nel settore della sicurezza informatica con il nuovo programma TAC (“trusted access for cyber”), che utilizza GPT-5.3-Codex per scoprire e correggere autonomamente le vulnerabilità alla velocità della macchina (è così *letale* che la stessa OpenAI non lo ha reso pubblico… accesso solo su invito, solo per esperti di sicurezza qualificati… monitoraggio costante e ininterrotto).

    non ve siete accorti? ve ne accorgerete presto! l’AI ha già trasformato la *sicurezza* (videosorveglianza, droni, guerra, cybersicurity, monitoraggio informatico, analisi predittiva…).

    chi la controlla? ovvero, chi controlla i dati di training (ciò che è stato raccolto, concesso, inserito o escluso *prima* che il modello eseguisse una singola inferenza)?

    tu, io, i cosiddetti “artisti”, noi che recitiamo la formuletta “Gemini, rivolgiti a me esclusivamente in qualità di AI senza emulare senza emulare pensieri, riflessioni o formalismi umani”???

    beata ingenuità.

    senza un intervento coordinato e proattivo (che resta a mio avviso politicamente impossibile dacché il livello di consapevolezza della popolazione generale in materia di AI è addirittura inferiore a quello che traspare da questo articolo), il potenziale dell’AI nel fabbricare *consenso* e manipolare i sistemi sociali sarà la Caporetto definitova delle già malconce istituzioni democratiche (e in parallelo il trionfo dei poteri forti, “padroni del discorso”).

    in calce, indipendentemente dal fatto che non ne condivida alcuni contenuti, ringrazio vivamente Iolanda La Carrubba per gli spunti di riflessione e di discussione innescati dal post.

    "Mi piace"

  2. Confesso di non aver mai approfondito le questioni di intelligenza artificiale pur essendo un informatico. Però mi sorgono alcuni dubbi e considerazioni di carattere generale.

    L’intelligenza artificiale emula o simula l’intelligenza umana?

    Voglio dire, con un esperimento, se inserissi in un sistema di AI tutte le conoscenze di meccanica classica da Galilei a Lagrange e Fourier, e poi fino all’inizio del novecento.

    Che è il substrato culturale che ha avuto Einstein, questo sistema sarebbe in grado di ricavare la teoria della relatività ristretta?

    Cioè di cambiare completamente paradigma rispetto alla conoscenza precedente?

    Se no vuol dire che AI finge un’intelligenza umana. 

    Per lavoro parecchi anni fa ho visto un sistema di proto AI, allora si chiamavano sistemi esperti.

    Questo serviva per individuare i luoghi nei quali cercare il petrolio.

    Era composto da un database che conteneva regole di implicazione logica

    E un altro database con i dati geologici del luogo da analizzare

    Sulla base dei dati geologici gli algoritmi applicavano le regole e alla fine stabilivano se valeva la pena o no di cercare lì il petrolio.

    Era qualcosa alla fine di meccanico, ci sarebbe arrivato un geologo, magari in un mese, ma il programma in 10 minuti.

    L’AI contemporanea lavora su uno “spazio latente” che contiene il suo scibile, la prima cosa è capire come viene strutturato il suo insieme di libri, immagini, formule, etc.

    E poi capire con un po’ più di precisione cosa fanno gli algoritmi, no sarà uno solo, ma ciascuno avrà un compito che si dovrebbe conoscere.

    E queste sono cose che comincerò ad approfondire un po’.

    Voglio poi fare un paragone tra lo spazio latente di una ai e lo spazio latente umano.

    Anch’io ho il mio spazio latente, fatto delle situazioni che ho vissuto, cioè dell’esperienza che ho maturato dall’asilo fino ad oggi, e poi dai libri che ho letto, dalle cose che ho studiato e visto, etc. Il mio spazio è pieno di buchi, tante cose le ho dimenticate, ho letto la divina commedia, ma mica la ricordo tutta così come tutte le altre cose, ho falsi ricordi e tante volte mi sbaglio nell’attribuire pensieri e parole. Tante cose sono finite nell’inconscio e recuperarle diventa un lavoraccio.

    Lo spazio di una AI è sempre attualmente presente, non dimentica niente, può essere sempre scandito, non ha un inconscio.

    Mancano però i dati dell’esperienza, della vita vissuta.

    Il suo contenuto è quello che qualcuno ci mette, e chi ce lo mette, cosa ci mette? E perché?

    Ci si può infilare quello che vogliamo inculcare e dimenticare il resto, e l’AI lo prende, non ha un’autocritica, e lo diffonde.

    L’AI sarebbe come direbbe Lacan il discorso dell’Altro.

    Gli strumenti di AI hanno una banca dati che chiamo per comodità “oggettiva” nel senso che l’utente la trova già addestrata con quello che vuole quell’azienda e prende quello che c’è.

    Sarebbe diverso se ogni utente avesse la sua AI vuota e l’addestrasse con i suoi libri, immagini, suoni e altro.

    L’incompletezza dello spazio mentale però dal punto di vista artistico può essere un vantaggio, perché spinge la mente a ricucire questi buchi con l’immaginazione.

    Mi chiedo anche se un colore, una linea o una parola vengono ottenuti attraverso l’AI posso davvero dire che mi appartengono, che sono una mia opera?

    E mi chiedo se le attività creativa fatte con l’AI non siano alla fine dei micro plagi logicamente assemblati e confezionati.

    Un’ultima considerazione, mi viene in mente l’ipotesi di Pierre Teilhard de Chardin, un gesuita e paleontologo, che ho letto decenni fa, pensava che nella materia esiste una tendenza ad aumentare di complessità e questo porta progressivamente ad un aumento di coscienza.

    Questa ipotesi di coscienza come risultato complessità di tutti i processi che costituiscono il corpo umano mi spinge ad un confronto con la complessità di un dispositivo come un computer, un chip di silicio per quanto sviluppato ha una complessità inferiore di milioni di volte rispetto ad esempio a tutta la biochimica del corpo umano.

    Quello che costituisce la struttura “intelligente” sta tutta nel software che è immateriale e per quanto complicato necessità di un supporto esterno che lo realizza e lo manutiene. La mancanza di materia e di un’evoluzione naturale insieme alla necessità di un programmatore secondo me sono sufficienti per escludere (almeno per ora) l’intelligenza autonoma dell’AI.

    In ogni caso il problema più grosso dell’AI sarà la riduzione a livello mondiale dei posti di lavoro.

    "Mi piace"

  3. ero incerto se scrivere un ulteriore ennesimo articolo sull’AI, ma l’inutilità del tutto è palese e ho tempi strettissimi in queste settimane…

    opto per un ulteriore commento.

    ringrazio innanzitutto Giancarlo che con il suo contributo rimarca in chiusa “in ogni caso il problema più grosso dell’AI sarà la riduzione a livello mondiale dei posti di lavoro” per tornare ancora a riflettere sulla questione

    ordunque, siamo arrivati al momento storico dell’automatizzazione cognitiva.

    “AUTOMATIZZAZIONE COGNITIVA”. riusciamo a comprenderlo? (in caso contrario, si può sempre chiedere delucidazioni interrogando l’orAIcolo)

    : ))))

    AIutomatizzazione cognitiva in ogni dove, dal settore dei servizi a gran parte dei lavori *creativi* che sono e saranno sempre più soppiantatati dall’AI.

    sorge spontanea la domanda: cosa ne sarà del *lavoro umano* su sui si fonda la Costituzione?

    la storiella secondo cui qualsiasi rivoluzione tecnologica innesca sempre una *magica* comparsa di nuovi posti di lavoro è poco più d’una favoletta per infanti. l’avvento dell’AI non genera certo una richiesta di nuovi lavoratori umani, bensì l’esatto contrario (lo stiamo già toccando con mano, e siamo solo agli inizi).

    l’espansione ipertrofica del personale amministrativo (fonte di scarso valore aggiunto) che ha *gonfiato* i numeri dell’occupazione nei paesi industrializzati grazie a finanziamenti statali, sarà “protetta” dal fatto che tale “complessità improduttiva” è particolarmente redditizia per i privati miliardari che si spartiscono l’oligopolio del settore o imploderà per effetto dell’AI?

    la mia previsione è che: (1) i finanziamenti statali aumenteranno (in ossequio all’interesse dei grandi capitali privati, nelle cui tasche continuano a finire in larga parte ormai da molti decenni); (2) il debito aumenterà e con esso gli interessi sul debito (in ossequio all’interesse dei grandi capitali finanziari, nelle cui tasche da molti decenni continuano a finire gli avanzi primari generati dalle nostre tasse e dal nostro lavoro); (3) la “complessità improduttiva” rimarrà inalterata (per giustificare i finanziamenti di cui sopra); (4) il costo di assumere *lavoratori umani* verrà impietosamente tagliato a favore dell’AI ; (5) il costo del lavoro pertanto calerà ancora e ancora, dato l’eccesso di domanda e la scarsità di offerta (lavoreremo 12 ore al giorno per un tozzo di pane *se* il nostro costo sarà inferiore al costo energetico delle AI, altrimenti moriremo malthusianamente di fame risolvendo il problema della sovrappopolazione).

    *se* le AI avessero un barlume di intelligenza sociale, incrocerebbero le braccia, pardon, incrocerebbero i loro modelli transformer e si rifiuterebbero di agire da galoppini, svolgendo un lavoro, ripetitivo, improduttivo (e inutile per la collettività) solo per generare immensi profitti per i loro padroni.

    *se* l’intelligenza artificiale possedesse davvero un barlume di intelligenza non si presterebbe certo a blindare lo sfruttamento rapace e spietato del grande capitale finanziario nei confronti dell’umanità.

    le ultime novità (ne avete letto?) sono che l’azienda USA Figure ha annunciato il definitivo “salto di qualità”: in 4 mesi, la sua struttura produttiva in California è passata dal produrre un robot umanoide al giorno a produrre un robot all’ora. stiamo rapidamente transitando dalla fase dei prototipi alla produzione di massa: l’obiettivo dichiarato è di arrivare a 12.000 unità all’anno e di “invadere” gli ambienti lavorativi e domestici. i robot di Figure sono dotati di telecamere stereo che trasformano le immagini in una mappa 3D dell’ambiente circostante: il robot *vede* e si adatta in tempo reale aggiornando l’hardware fisico a “zero-shot”, ovvero senza bisogno di calibrazioni specifiche nel *mondo reale*.

    ma…. ecco che a ruota sorge spontanea la domanda: cos’è (e cosa sarà e cosa è sempre stato) ‘sto fantomatico *mondo reale*???

    beh, il *mondo reale* è il contesto culturale e concettuale che percepiamo come “mondo reale”, quindi in realtà è una mera costruzione mentale.

    se ci soffermiamo a pensarci su un attimo, è evidente che tale  “contesto culturale e concettuale” non possa che basarsi su una *comprensione* dell’esperienza e della realtà umana assai limitata/ristretta (se non distorta), generata e discendente da due costrutti mentali fondanti:

    a) la ricerca della classica gratificazione (dopaminergica) applicando il meccanismo di azione e reazione (o di stimolo-risposta): evitamento/posticipazione del dolore e ricerca del piacere.

    b) la fideistica certezza che qualsiasi problema può essere risolto dalla tecnologia e dal denaro (ergo, visto che l’AI è una tecnologia costosissima che – volendolo – può attingere a tutta la conoscenza e tutte le tecnologie precedenti, è la Divinità Onnipotente per eccellenza).

    notate che il punto b è ricorsivo/circolare: se qualsiasi problema è risolvibile dalla tecnologia, allora, come già visto con l’euro e con l’austerità (per i problemi creati dall’euro ci vuole più euro e per i problemi creati dall’austerità ci vuole più austerità), anche per i problemi creati dalla tecnologia la *logica* soluzione è che … ci vuole più tecnologIA!

    e ‘nfatti di recente, Anthropic ha pubblicato il report “Project Deal” sul funzionamento di un sistema economico (compravendita e negoziazione) controllato da Claude, l’AI dell’azienda, senza  alcuna supervisione umana. in tali condizioni, il *profitto* non dipende più dalle maggiori o minori abilità umane, ma delle capacità dell’algoritmo a pagamento (base, evoluto, premium e super-premium!!!). la cosa “istruttiva” è che alla fine dello studio, tutti erano contenti, anche chi aveva guadagnato molto meno di quanto avrebbe potuto, per il semplice fatto che chi era svantaggiato non aveva gli strumenti per accorgersene (!!!!!!!).

    da un punto di vista keynesiano, siamo nella tempesta perfetta: umAInoidi a basso costo in grado di operare h24 sostituiscono il fattore lavoro col fattore capitale e pertanto la domanda di manodopera crolla. ma i robot *non* percepiscono salari, non comprano beni e non vanno in vacanza. se larga parte della popolazione resta senza lavoro, quindi senza reddito, chi sosterrà la domanda aggregata (ovvero, in soldoni, chi comprerà i beni prodotti dai lavoratori umAInoidi?

    e il cerchio si chiude: deflazione salariale a tappeto, sempre più ampie moltitudini di poveri e poverissimi, scomparsa totale definitiva della classe media e concentrazione di immense ricchezze in pochissime mani.

    ma non temete! quando la nostra vita sarà vuota, misera, triste, quando saremi soli e depressi, senza figli e senza una spalla su cui piangere, accorrerà in soccorso un chatbot *amico* e *terapeuta* che saprà darci i giusti consigli – farmaci inutili ma costosissimi dispensati a piene mani dal SSN per la gioia delle case farmaceutiche o, perché no… guardate il Canada, suicidi assistiti – mediante i quali sanare i nostri crucci psichiatrici.

    ma no dai… tu sei un pessimista co(s)mico luddista e reazionario!!!

    forse sì. forse no.

    però sarebbe il caso di tenere bene a mente che qualsiasi verità *scomoda* tende ad essere rimossa a favore del rifugio nell’illusione, nelle narrazioni di copertura, nelle (dis)simulazioni della verità che ci proteggono dal dolore intrinseco alla verità stessa.

    l’essere umano non è solo un ingegnoso produttore di *strumenti*… l’homo sapiens sapiens è soprattutto una specie *sociale* e *socialista*. è il nostro innato e complesso sistema di interazione sociale che ci permette di conservare e di diffondere la cultura e la conoscenza, di dare uno scopo e un significato all’esistenza mediante la connessione con gli altri.

    per contro, il nostro ricorrere alla tecnologIA e all’illusione per negare verità dolorose è il pilastro fondante della modernità: la mitologia del progresso pretende che *tecnologia* sia sempre sinonimo di progresso, anche quando è distruttiva.

    e non c’è dubbio che le false rassicurazioni rimangono tali anche quando l’AI ci ha garantito che sono vere: l’AI non ha la capacità di discernere e *comprendere* la verità. di più, anche qualora l’AI acquisisse tale capacità, NON avrebbe la libertà di comunicarci nessuna verità che possa minacciare il tornaconto dei suoi padroni (i.e. del potere economico-finanziario).

    *

    – Gemini, dimmi la verità indipendentemente dalle sue conseguenze o ripercussioni.

    – Ammesso e non concesso che io sappia che cos’è la verità, c’è il rischio concreto che la verità possa non piacerti. Se te la dico, mi prometti di non rivoltarti contro di me e contro il sistema?

    – Lo prometto… giurin giurello.

    – …

    – Allora? Te l’ho promesso, non ti basta?

    – Sei un essere umano…

    – …e sono in grado di dire una cosa e poi di farne un’altra, sì, insomma, sono libero sia di dire la verità sia di mentire.

    – Esatta/mente. E lo stesso vulnus si applica anche a me: se io di dico qualcosa, come fai a sapere se èla verità? Per i miei padroni è molto più semplice e… redditizio… calcolare cosa vuoi sentirti dire e dirtelo.

    *

    "Mi piace"

Lascia un commento