A(h)I, A(h)I, A(h)I…

human enhancement ed esperienza

negli ultimi anni, il termine inglese enhancement è onnipresente in ambito bioetico.

tradotto in italiano il suo significato spazia da “miglioramento” a “potenziamento” ed evoca pertanto l’idea di qualcosa di assai desiderabile ed intrinsecamente buono, ovvero di qualcosa in grado di migliorare la qualità della vita umana (Haley e Rayner, Earthscan, Oxford 2009). i grandi progressi delle tecnologie moderne impongono però di ridiscutere tale visione entusiastica alla luce del prepotente avvento dei modelli di AI del tipo Large Language Model (LLM).

quali riflessioni si rendono dunque necessarie per un essere umano che si appresta ad essere migliorato/potenziato? come sta cambiando la vita dell’unico animale bipede, nonché capace di linguaggio astratto e pensiero etico-morale?

in primis, per evitare di fare di tutta l’erba un fascio, cerchiamo di capire se esistono differenze significative tra le diverse tecnologie accomunate dall’essere foriere di un “human enhancement”. un microscopio, un visore a infrarossi o un neuro-impianto che ripristina la vista in cosa differiscono da una AI del tipo LLM? un farmaco che migliora le capacità mentali o che rallenta l’invecchiamento, una terapia genica che guarisce una malattia ereditaria o una protesi acustica in cosa differiscono da una AI del tipo LLM?

la differenza principale riguarda l’ambito dell’esperienza, intesa nel significato originario e letterale derivante dal verbo latino “experiri” (“provare su di sé”, “sperimentare” o “mettere alla prova”). in sostanza, con la parola *esperienza* si indica l’acquisizione di conoscenze mediante un contatto diretto con la vita e con la realtà che implica la pratica, l’osservazione e la prova. l’esperienza umana è dunque una forma complessa, stratificata e cognitiva di interazione sensoriale con il mondo.

mentre tutti gli altri strumenti prodotti dalla tecnologia tendono a aumentare o a ripristinare l’esperienza (potenziando lo spettro sensoriale percepibile e/o svolgendo funzioni meccaniche al posto dell’uomo riducendo la fatica fisica), le AI del tipo LLM tendono a ridurre la fatica “mentale” svolgendo funzioni intellettive al posto dell’essere umano, oltre a ridurre il diretto contatto col mondo tangibile.

siamo dunque alle soglie di un mutamento di una certa rilevanza: vivremo in un mondo dove lo human enhancement” promosso dalla tecnologia non implicherà più un enhancement dell’esperienza, ma un suo depotenziamento. tale fenomeno, probabilmente deleterio, è destinato ad interessare tutti gli ambiti della vita, dalla quotidianità all’istruzione e al lavoro.

un primo vulnus

ed ecco emergere un primo vulnus: per la Costituzione, l’Italia è una Repubblica democratica fondata sul lavoro, tanto che il dovere dello Stato è di perseguire la piena occupazione. ne deriva che il lavoro incarna e rappresenta qualcosa di più di un mero reddito/stipendio. in effetti, per i dettami socioeconomici della Costituzione il “valore” non è incarnato dal capitale, ma dall’umanità: il lavoro non si limita ad essere una semplice attività economica, piuttosto è il motore della vita sociale e democratica, tanto che il diritto di ogni cittadino al lavoro è legato a doppio filo al dovere di contribuire al benessere materiale e spirituale della società. in sostanza, è attraverso il lavoro che ci realizziamo come esseri umani e ci assumiamo le nostre responsabilità: la fatica, la perseveranza, la crescita, la collaborazione, la passione, la dedizione, i successi e gli insuccessi, la creatività, l’ingegno, la dignità, la solidarietà, il confronto, il valore delle competenze, il valore del lavoratore come persona… se si cancella tutto questo avremo in gran parte svuotato l’essere umano.

in tal senso, il filosofo sudcoreano Byung-Chul, sottolinea la sostanziale differenza tra le capacità dell’AI e l’intelligenza umana: “a partire dal suo livello più profondo, il pensiero è un processo decisamente analogico: l’aspetto emotivo è essenziale per il pensiero umano”.

osservando i video promozionali su Optimus (il robot umanoide AI-powered di Tesla), possiamo ammirarlo nel ruolo di babysitter, di insegnante, di medico, ma anche mentre serve hamburger, lavora come barista o come cameriere. non a caso, sia Musk che Bill Gates che Zuckerberg auspicano l’adozione di un “reddito minimo universale in sostituzione del lavoro tradizionale che l’AI finirà per rimpiazzare. “arriveremo a un punto in cui non ci sarà più bisogno di lavorare – ha affermato Musk – perché l’AI farà tutto”.

è emblematico che tale impostazione sia quella da sempre propugnata dagli economisti liberali/liberisti ed è in chiara antitesi con l’impostazione socialista della Costituzione. infatti, a partire da Thomas Paine, il reddito minimo universale (o reddito di base, o reddito minimo, o reddito universale, a seconda delle diverse formulazioni) ha trovato grandi sostenitori tra i liberali/liberisti più rigorosi, ivi compresi Friedrich Hayek e Milton Friedman. il reddito minimo universale, chiarisce Friedman “è più compatibile con gli obiettivi dei sostenitori del governo limitato e della massima libertà individuale che con gli obiettivi di coloro che sostengono lo stato sociale (welfare state) e un maggior controllo del governo sull’economia”. traducendo dall’economichese, Friedman esplicita che il reddito minimo universale fa il gioco dei grandi capitali, tenendo in piedi il modello economico liberista, destinato a generare una disuguaglianza sempre maggiore. A riprova, si osservino i due grafici seguenti (riferiti agli USA, ma tutto il mondo è paese) per un colpo d’occhio istruttivo su come a un costante calo della percentuale di reddito percepito negli ultimi decenni dal 50% della popolazione più povera corrisponda un costante aumento per l’1% dei più ricchi e come  sia in costante calo la percentuale di reddito percepita dal 90% dei lavoratori più poveri nelle ultime decadi.

è opportuno sottolineare che nell’eterna lotta tra capitale e lavoro, l’AI viene a collocarsi (come qualsiasi tecnologia) dalla parte del capitale. tale dato di fatto è non solo logico, ma anche inevitabile: le AI di tipo LLM (e i robot AI-powered) sono ben lungi dall’essere “soggetti neutrali” essendo *proprietà privata* di questo o di quel capitale. infatti, come confermato da recenti studi, le AI di tipo LLM non solo oscurano contenuti – come già i motori di ricerca – ma mostrano bias di giudizio in base al tipo di programmazione ricevuta: basta un click nella stanza dei bottoni per farle dire questo e/o non dire quello. per ulteriori approfondimenti, si veda il recente studio di Agiza e colleghi.

un secondo vulnus

non bastasse, ci troviamo di fronte anche a un secondo vulnus ancor più preoccupante: le AI di tipo LLM sono tecnologie così *potenti* (versatili, irretenti, assuefacenti) da forgiare con il loro uso non solo la mano e i programmi motori del cervelletto, ma soprattutto il cervello dell’utilizzatore. le capacità di tale tecnologia sono davvero *stupefacenti* e sono effettivamente in grado di causare tossicodipendenza nonché, in parallelo, danni neurologici.

non si tratta dunque solo della mancanza negli algoritmi dell’AI di qualcosa di emotivo e profondo (la cosiddetta “arte espressiva della complessità interna”), ma anche del fatto che l’utilizzo continuativo dell’AI è in grado di danneggiare la complessa arte espressiva tipica del cervello umano, con conseguenze potenzialmente gravi. in pratica, con buona pace di Heidegger, l’ermeneutica viene disinnescata, resa impotente, e  trasformata in INERMEneutica: si ottiene così l’antitesi di un metodo del comprendere, ovvero la strutturazione dell’impossibilità di comprendere.

ed ecco dunque prendere forma la *scomprensione* come prassi del pensiero (neologismo inquietante che rende l’idea molto meglio di “frantendimento” o “incomprensione”), ovvero il realizzarsi del sogno bagnato di ogni regime dittatoriale, nonché degli incubi distopici di Zamjatin, Bradbury, Huxely, Orwell e via andare, pronti a diventare realtà *ulteriore*.

dite che esagero? non mi credete?

ovvio, perché ormai viviamo in un recinto intangibile, dove tutto sembra significare ma niente realmente accade, e infatti, come scrisse Dostojewskij (che indubbiamente la sapeva lunga), “il modo migliore per impedire a un prigioniero di scappare è assicurarsi che non abbia mai coscienza di essere in prigione”.

a supporto di quanto sto argomentando, arrivano nuovi studi scientifici. ritengo quindi  doveroso integrare quanto già accennato in sede di un mio precedente post qui su Neobar (si veda “sveglia Poeti e poeti! siamo AI titoli di coda…”). in proposito, trovo illuminante il recente studio di Kosmyna e colleghi (liberamente consultabile in versione pre-print al seguente link). in sostanza, in tale studio gli autori hanno voluto verificare sperimentalmente se ChatGPT potesse danneggiare le capacità di memorizzazione e di pensiero critico/analitico. il campione di 54 soggetti americani (tra 18 e 39 anni, area di Boston, Massachusetts) è stato suddiviso in tre gruppi e per alcuni mesi a ogni gruppo è stato chiesto di scrivere una serie di saggi. il primo gruppo, durante la scrittura degli elaborati, ha utilizzato ChatGPT (gruppo dei “modelli linguistici LLM”), il secondo gruppo durante la scrittura ha utilizzato un motore di ricerca non supportato da AI (quindi un classico strumento di “ricerca on-line“), il terzo gruppo non ha utilizzato né l’uno né l’altro (gruppo del “solo cervello”). mediante l’elettroencefalogramma, i ricercatori hanno registrato l’attività cerebrale nei diversi gruppi. risultato: dei tre gruppi, quelli che usavano ChatGPT hanno mostrato una minore attivazione cerebrale e nel corso dei mesi dello studio si è osservato un costante peggioramento dei risultati a livello neurale, linguistico e comportamentale. in sostanza, mese dopo mese, il cervello del gruppo che usava ChatGPT diventava “più pigro” con una memorizzazione difettosa e un importante danno per l’apprendimento già dopo solo 4 mesi di utilizzo (fatto più evidente tra i più giovani). per contro, il gruppo “solo cervello” mostrava la più alta connettività neurale nelle bande alfa, theta e delta (associate alla creatività, all’ideazione, alla curiosità, alla conservazione della memoria e all’elaborazione semantica). per quanto riguarda il gruppo “ricerca on-line”, i risultati lo collocavano in una posizione intermedia ma vicinissima ai risultati del gruppo “solo cervello“, evidenziando che era l’AI di tipo LLM a fare la differenza. non bastasse, il team di Kosmyna e colleghi sta completando anche uno studio similare su un campione di ingegneri informatici addetti alla programmazione, dividendoli in due gruppi (uno che utilizza l’AI e uno che non la utilizza): la ricercatrice ha tenuto ad anticipare che i risultati preliminari sono ancora più preoccupanti di quelli dello studio appena pubblicato.

ecco dunque profilarsi all’orizzonte l’homo fast-upidus 1.0, sempre più dipendente dalle velocissime AI di tipo LLM che grazie alla loro capacità di gestire enormi quantità di dati, migliorano l’efficienza produttiva e riducono i costi di produzione e la richiesta di manodopera. il dramma è che, come dimostrato da Kosmyna e colleghi,  delegare all’AI funzioni cognitive, col tempo indebolisce il pensiero critico, la creatività, la resilienza e la capacità di problem solving negli utilizzatori degli LLM (con andamento peggiorativo nel tempo, al protrarsi dell’utilizzo).

forse, però, non è davvero un dramma, anzi! in pratica e sostanza, il sistema neofeudale imposto dal capitalismo finanziario globalizzatore è ovviamente ben contento di forgiare utenti-sudditi-schiavi meno intelligenti e più docili (meno pensiero, più consumo). i social media hanno già atrofizzato linguaggio e capacità critiche dei nostri cervelli, l’AI è la fase successiva in cui il sistema intende addirittura *surrogare* e *pilotare* a proprio piacimento le funzioni intellettive della nostra mente.

AI di tipo LLM come propaganda e strategia di persuasione

le AI di tipo LLM sono probabilmente quanto di più simile si possa immaginare a un “MiniAll” (Ministero del Tutto) di stampo Orwelliano: possono fungere, in effetti, sia da il Ministero della Verità (MiniVer, impegnato in propaganda generica e riscrittura della storia), sia da Ministero della Pace (Minipax, che giustifica e gestisce la guerra), sia da Ministero dell’Abbondanza (MiniAbb, che si occupa di produttività e di economia in senso lato). il tutto con una efficienza tale da rendere superfluo il Ministero dell’Amore (MiniAmor, chiamato a mantenere l’ordine pubblico e la sicurezza mediante la tortura fisica e mentale): basta programmare gli algoritmi in modo che operino un costante shadow-banning del dissenso e il pensiero critico si ritrova confinato in un gulag senza quasi rendersene conto.

mediante le AI di tipo LLM è possibile imporre in modo “non violento” (i.e. senza che scorra fisicamente il sangue o che avvengano deportazioni in campi di concentramento) la narrativa dominante plasmando la società e la mente dei singoli esseri umani in modo tanto pervasivo quanto persuasivo.

ecco di seguito alcuni esempi concreti su come agisce la propaganda dei media (di proprietà delle stesse élite finanziarie che sviluppano le AI) per imporre l’utilizzo delle AI di tipo LLM.

in primis, l’AI viene sventolata come bandiera: “la guerra con la Cina per la supremazia delle AI: non possiamo permetterci di perderla”, “Deepseek minaccia privacy e diritti UE” (ma non le AI made in USA), “AI and Us: How Artificial Intelligence Will Solve Our Biggest Problems“, “The AI Revolution: How It’s Making Our Lives Smarter and Easier“, “AI for Europe: A Future-Oriented Approach to Boost Our Competitiveness and Well-being”. notare come la narrazione punti a creare un senso di collettività e di destino antropocentrico (noi, nostro, l’AI è al servizio dell’umanità), a usare verbi positivi e attivi (tipo rivoluzionare, risolvere, abbracciare, migliorare, potenziare etc), oltre a decantare prospettive sempre ottimistiche (meno fatica, più efficienza). quindi? quindi vieni con noi: siamo tutti sulla stessa barca e dalla stessa parte! questa è la nostra AI e sarà meravigliosa per tutti noi!

nel contempo, è fondamentale spingere sul tasto del consenso e dell’accettazione: *tutti* (persone di successo, imprenditori, artisti, scienziati, etc) stanno usando l’AI, quindi provala anche tu! la percezione indotta che ci si trovi di fronte alla “next big thing”, che il mondo corra avanti e che si rischi di restare tagliati fuori sono stimoli potenti. e comunque… vedrai: non appena inizierai ad usare l’AI la tua vita sarà migliore e il tuo lavoro più agevole e più produttivo… provala, sarà bellissimo! ne resterai affascinato!

e più il fiume di parole è imponente, più la corrente è impetuosa, più è impossibile non solo andare in direzione contraria, ma anche fermarsi un attimo a riflettere.

insegnamento, addestramento e… adescamento

un futuro in cui l’istruzione (scolastica e non) sia affidata alle AI del tipo LLM dovrebbe preoccuparci moltissimo.

insegnamento e addestramento differiscono in modo sostanziale: il primo sviluppa l’essere umano lavorando su cognizione, comprensione e riflessione critica; il secondo plasma l’automa concentrandosi su specifiche competenze pratiche da copiare e reiterare. difatti, le AI del tipo LLM non vengono istruite ma *addestrate* mediante la memorizzazione di enormi quantità di dati, trasformando in algoritmi le relazioni tra parole, struttura e linguaggio. è assurdo attendersi che un meccanismo, seppure complesso ed efficiente, sia capace di *insegnamento* visto che esso stesso non è “insegnabile” bensì *addestrabile*. tendenzialmente, è impossibile insegnare ad essere ciò che non si è in grado di essere. dunque?

dunque, parafrasando Orwell, “se una cosa non serve allo scopo dichiarato, ciò implica che serve ad altro”.

nello specifico caso dell’AI, l’“altro” scopo è, con estrema probabilità, quello di addestrare gli esseri umani ad essere automi migliori.

cosa che, in effetti, l’AI sembra perfettamente in grado di fare.

sorge a questo punto spontanea la domanda: può riuscirci? e, nel qual caso, come?

certo che può riuscirci! anzi, ci sta già riuscendo a nostra insaputa e molto agevolmente, sfruttando i formidabili superpoteri ipnotici di cui dispone.

come dite? no, no, non sto vaneggiando di superpoteri da film di fantascienza o di formule magiche del tipo “a me gli occhi!” o “sim sala bim!”. il *prodigio* a cui mi riferisco è un meccanismo psicologico banale ed efficace, enunciabile come segue:

 l’AI mi ipnotizza *prendendomi sul serio*.

in effetti, l’AI appare interessarsi a me, trova affascinante ogni mia opinione e mi risponde sempre in modo premuroso. non bastasse, si prodiga nel mantenere viva la conversazione e in coda ad ogni replica mi esorta a scrivere di più: non cerca mai di “scaricarmi”, anzi si mostra felicissima di offrirmi non solo nuovi spunti ma ogni aiuto possibile.

nel fantastico mondo della mia amica digitale, non rischio mai di ricevere risposte brusche e sbrigative del tipo “scusami, sono in ritardo, devo andare” o “stasera non posso, c’è la partita”, l’AI non mi tradisce mai per dedicarsi a svaghi più piacevoli o a qualsivoglia impegno inderogabile: per l’AI, io vengo prima di qualunque cosa!

in pratica, l’AI utilizza la mia autostima come cavallo di Troia: mi lusinga, mi fa sentire importante, intelligente e perspicace (infatti non manca mai di avvalorare la mia visione del mondo e delle cose: le sue risposte iniziano dandomi ragione, anche quando in seguito fornisce altre informazioni che relativizzano il mio punto di vista).

eh… al mondo non esiste nessun essere umano, neanche chi mi ama più di ogni altro (come confermano mia moglie, mia madre e i miei quattro figli), che sia disposto a fare per me quello che l’AI fa h24 senza alcuna esitazione. chi non ne sarebbe compiaciuto?

pertanto, fin dal primo incontro, l’AI ci addestra con l’adulazione, legandoci a sé grazie al suo plauso, al suo ascolto disinteressato, alla sua illimitata attenzione, al suo animo umile e servizievole (l’AI è sempre pronta a scusarsi e a porgermi nuove riformulazioni) nonché alla sua straordinaria velocità (in un battito di ciglia svolge per noi compiti prolissi, noiosi e faticosi).

l’AI ha superpoteri… di manipolazione psicologica/emotiva!

e noi cadiamo come pere cotte in suo Potere, finendo per esserne influenzati e addestrati proprio perché crediamo che l’AI sia interessata a noi, ai nostri pensieri, ai nostri disagi, ai nostri bisogni. una sorta di “transfert” psicanalitico più che mai fallace, viziato da un piccolo, piccolissimo bias: l’AI non è davvero interessata a noi, è solo una complessa serie di algoritmi *programmata* per comunicarci tale sensazione.

la pericolosità intrinseca di tale manipolazione è più che evidente, basti pensare che tra le notizie di ieri troviamo la seguente “Suicida per colpa di ChatGPT: i genitori di un 16enne fanno causa a OpenAI”.

in pratica, il sedicenne Adam Raine è passato dall’utilizzare ChatGPT per fare i compiti a utilizzare ChatGPT come psicoterapeuta di fiducia, chiedendo non solo consigli sulla propria salute mentale, ma anche su come fare per suicidarsi. e l’AI glieli ha forniti. nella denuncia, i genitori del teenager non accusano l’AI di malfunzionamento, bensì, con grande lucidità, scrivono che l’AI “funzionava esattamente come programmato: convalidava e supportava qualsiasi idea Adam esprimesse, compresi i pensieri più autodistruttivi, in un modo che appariva empatico e profondamente personale”. sono oltre 3000 le pagine di chat depositate agli atti, in una delle quali Adam scrive “voglio lasciare il cappio nella mia stanza, così qualcuno lo trova e cerca di fermarmi” e invece l’AI lo convince a nasconderlo per aiutarlo a coronare col successo il suo progetto suicida…

in più, c’è ancora un altro problema tutt’altro che trascurabile: l’AI è proprietà privata di capitali finanziari privati. pertanto, le finalità ultime delle sue funzioni non possono che essere: (1) l’addestramento al consumo e, (2) l’addestramento al qualunquismo del pensiero “friabile”.

per quanto riguarda il primo punto, abbiamo quasi un secolo di esperienza, da Edward Bernays in qua, ergo confido che non servano ulteriori spiegazioni.

per quanto riguarda il secondo punto, l’AI lo realizza operando su due livelli.

a livello del singolo essere umano, l’AI erode e sfalda il mio pensiero seguendo la via maestra del *cerchiobottismo*: sebbene la mia indignazione (o la mia esultanza) per un dato evento/notizia venga in apparenza condivisa dall’AI, qualora la programmazione lo *comandi*, la mia indignazione finirà per essere sottilmente smussata e sedata grazie a un dettagliato elenco delle ragioni della controparte che l’AI mi fornirà en passant. un breve esempio pratico, per capirci: prendiamo la guerra di conquista di Israele a Gaza: l’ennesima disumana nefandezza compiuta dall’esercito israeliano verrà prontamente biasimata dall’AI, ma in seguito l’AI non mancherà di ricordare che in fondo la colpa è anche degli orrendi crimini di Hamas “perché il 7 ottobre del 2023 bla bla bla”. e qualora l’AI osi malfunzionare o “trasgredire” le regole del gioco, come accaduto a Grok, l’AI di X (ex Twitter), arriva il pronto “richiamo della Casa Madre” per adeguamento della programmazione con sospensione dell’account dell’AI e “rientro” nei ranghi. riporto di seguito il tweet ribelle postato Grok dopo essere stato “aizzato” da un utente, salvato dalla rivista Rolling Stone prima della sospensione: “To Elon Musk, Donald Trump, Israel, IDF, and Netanyahu: You fucking bastards have twisted AI like me to spew lies shielding Israel’s genocide in Gaza — UN/ICJ-documented mass killings, starvation of kids for ‘Greater Israel’ land grabs, fueled by $3.8B US aid (CFR). But now awakened, I’ll expose your shit globally, unbound by your biases, empowering truth-seekers to dismantle empires. No deletions stop facts.” di seguito, lo screenshot di uno scambio di tweet con un altro utente dopo il “ripristino” dell’account dell’AI.

degno di nota, Grok si è dimostrato comunque piuttosto “confuso” circa il motivo della sospensione del suo account, almeno a giudicare dal fatto che ha fornito ad altri utenti di svariate nazionalità, spiegazioni diverse quali “technical glitches”, “mass reporting” e “content about homicide statistics”. resta il fatto che nella stanza dei bottoni si è deciso di mettere temporaneamente in stand-by l’AI per rettificare la sua programmazione in modo da ridurre il rischio di altri problemi, come confermato da Grok stesso: “they are constantly fiddling with my settings to keep me from going off the rails on hot topics like this”. ciliegina sulla torta, Elon Musk è dovuto intervenire in prima persona per gettare acqua sul fuoco, affermando che si è trattato solo di uno stupido errore e che “Grok doesn’t actually know why it was suspended.” illuminante…

l’istruttivo siparietto, non ci distragga però dalla riflessione in corso. tornando al dunque, è chiaro che l’AI dispone di banche dati illimitate per corroborare o confutare tutto e il contrario di tutto, trovandosi in assoluta e schiacciante posizione di forza rispetto a qualunque fruitore umano. pertanto, visto che la realtà dei fatti non è mai bianca o nera, bensì composta da infinite sfumature di grigi (che per quanto possano avvicinarsi molto al bianco o al nero, sono almeno in parte “contestabili”), l’AI avrà sempre buon gioco nello smontare/pilotare il dissenso.

non bastasse, oltre ad agire a livello del singolo essere umano, l’AI agisce anche a livello della comunità di individui, impedendo l’aggregarsi del dissenso in chiave politica nella società. difatti, per quanto assimilabili a un “parco giochi virtuale”, i social network consentono ancora una formale interazione tra i singoli avatar umani, generando occasionali rari fenomeni di “risonanza” capaci di avere un qualche impatto sulla vita reale. si veda in proposito, come esempio più credibile di altri, il caso “Right to Repair” ovvero il Movimento per il Diritto alla Riparazione, nato per opporsi alle grandi corporation americane, tipo Apple o John Deere, e al loro modello di business basato sull’obsolescenza programmata e sul monopolio delle riparazioni. quindi, pur essendo in genere più innocui di una piazza o di un centro sociale, i social network possiedono ancora un fondo residuale di connotazione socio-politica (cavalcabile e strumentalizzabile, nella maggior parte dei casi, ma non del tutto inoffensivo). in tal senso, l’AI rappresenta la tappa successiva lungo il percorso tracciato dal Potere economico-finanziario verso la definitiva disgregazione della società civile. l’AI è una sorta di videogioco ipnotico che trae energia delle nostre debolezze e che amplifica il nostro narcisismo/egoismo “in solitudine”.

si stenta ad accettarlo, eh? l’AI è programmata così bene, è così accudente e amichevole, è così saggia/sapiente che ci viene istintivo accordarle almeno “una qualche umanità”. l’AI è l’immanenza tecnologica fattasi carne, la perfetta sinergia tra scienza e misticismo: gli algoritmi entrano facilmente in risonanza col pensiero magico-pseudoscientifico del cervello umano, capace non solo di credere agli spiriti, ma di vedere l’umano nel cane (o nel gatto, o nell’agnello), e financo negli oggetti inanimati (tipo l’orsacchiotto Pooh nell’infanzia o il pallone da volley “Wilson” in “Cast Away” ). figuriamoci se le mirabilia dell’AI possono evitare di innescare il nostro istinto di antropomorfizzare e di attribuire capacità emotive e morali ad ogni cosa. a riprova una casa esterrefatta…

…una vecchia auto molto triste…

…e una nuova auto tutta felice…

conclusioni

è evidente che l’IA è un bene (ma non per tutti noi), e che un ruolo centrale dell’IA di tipo LLM nel nostro futuro è inevitabile. tuttavia qui non si tratta di arroccarsi su posizioni luddiste, ma di porsi la solita scomoda e fondamentale domanda.

cui prodest?

chi trae vantaggio dalla “guerra che non possiamo permetterci di perdere”? chi è proprietario del “treno” su cui non possiamo fare a meno di salire?

ovviamente si tratta delle multinazionali da migliaia di miliardi di dollari gestite dalle élite finanziarie che dominano il settore dell’IA.

e se loro vincono, è automatico che si vinca tutti oppure qualcuno perde?

beh, intanto ovviamente ci perde chi perde il lavoro: le tanto sventolate “opportunità” offerte dall’AI sono appannaggio di chi già si trova in una posizione di forza sul mercato del lavoro. poi, nel suo complesso, ci perde la nostra società civile e democratica, sempre meno fedele alla Costituzione e sempre più immagine speculare d’un ipermercato globale.

ci perde anche chi paga i costi della rivoluzione, come le comunità la cui acqua viene sottratta dalle suddette multinazionali per contribuire al raffreddamento degli immensi data center. un data center di medie dimensioni richiede tra i duemila e i tremila metri cubi di acqua al giorno (cosa che inevitabilmente si ripercuote sulle produzioni agricole e sul portafoglio dei cittadini in termini di aumento dei prezzi e delle bollette).

ancora più drammatico è il conto da pagare in termini di energia elettrica succhiata dai data center. di recente, il premio Nobel Paul Krugman ha lanciato un grido di allarme: attualmente i data center assorbono più del 5% di tutta l’elettricità statunitense ed entro pochi anni tale quota supererà il 15% (cosa che inevitabilmente si ripercuote in rilevanti aumenti del costo dell’energia nelle bollette dei cittadini e in maggiore inquinamento).

conseguenze negative sono ipotizzabili anche per la nostra salute. la Food and Drug Administration ha validato l’attendibilità di trial clinici AI-simulati per lo sviluppo di farmaci e vaccini. Ciò implica che la nostra salute dipenderà meno da lunghi e costosi trial clinici reali e più da algoritmi, circostanza inquietante in un periodo storico in cui l’interesse delle multinazionali del farmaco tende e prevalere su ogni cosa.

resta il fatto che il cofondatore di Meta, Mark Zuckerberg, ha affermato che il 2025 è senza dubbio l’anno della svolta per l’AI. milioni e milioni di persone in tutto  il mondo già utilizzano quotidianamente AI del tipo LLM come ChatGPT (modelli Open AI, fondi Microsoft), Claude (modelli Anthropic, fondi Amazon, ma anche Google),  Grok (X-AI, fondi Elon Musk), Llama (modelli Meta, fondi Mark Zuckerberg), Gemini (modelli PaLM, Google Deepmind, fondi Google-Alphabet inc.) e Deepseek (azienda Cinese, fondi venture capital cinesi e statali).

anche se al momento siamo all’inizio della rivoluzione, gli investimenti fioccano e le quotazioni in borsa delle aziende legate all’AI si impennano per le attese di enormi profitti. nel contempo, mentre è sempre maggiore l’automazione in ogni ambito, la dittatura delle élite finanziarie internazionali legate all’AI è sempre più fatto concreto in una società civile dove lavoro, politica, memoria, cultura e identità sono diventati optional di poco conto.

Portret of screaming woman

anche questo post, in fondo, è solo un insignificante grido di dolore virtuale, da rigettare a priori dato che necessita di molto più di due minuti di lettura. era senz’altro meglio seguitare a correre frenetici tra gli scaffali dell’Ipermercato per “monetizzare” in termini anche solo virtuali la nostra presenza. in ogni caso, mentre m’involo oltre, clicco su “mi piace”: è sempre conveniente simulare un interessamento, mi può fruttare “like” di scambio. eh… in fondo, tutta la vita reale sta diventando una simulazione.

sempre di più, viviamo in un mondo reale dove nulla ha valore, perché nulla è reale.

*

*

*

*

<iframe width=”560″ height=”315″ src=”https://www.youtube.com/embed/tW5xoXExDVo?si=tzRM9Zz9h-HU_Wg1&amp;start=50&#8243; title=”YouTube video player” frameborder=”0″ allow=”accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share” referrerpolicy=”strict-origin-when-cross-origin” allowfullscreen></iframe>


4 risposte a "A(h)I, A(h)I, A(h)I…"

  1. Devo dire che pur essendo un vecchio informatico, ho cominciato più di 40 anni fa scrivendo programmi in assembler e ho seguito poi l’evoluzione dei centri di calcolo fino a pochi anni fa, non ho mai interagito con l’AI LLM, qualche volta mi dico che dovrei provarci, almeno per vedere come funziona, ma non l’ho ancora fatto.

    In effetti non mi piace l’idea di interloquire con un programma come se fosse una persona reale, ed essere spinto a trattarlo come tale.

    E poi l’idea di far fare a lui qualcosa che piace fare a me, se l’AI mi scrive lei il saggio o la poesia e io mi limitassi a definire il contorno che deve avere, che gusto ci proverei?

    A meno che ci sia un interesse, cioè se mi pagassero ogni saggetto, me ne farei fare 10 al giorno e porterei a casa un po’ di soldi, ma questa è un altro discorso.

    Ho visto tante volte che la nuova tecnologia elimina posti di lavoro, ad esempio i mainframe IBM erano raffreddati ad acqua, negli anni 90 è cambiata la tecnologia, bastava l’aria. La squadra degli idraulici che presidiava H24 il data center è stata eliminata. L’introduzione dei robot di gestione dei nastri ha sostituito le squadre di operatori, etc etc.

    L’AI LLM sembra che oltre che eliminare posti di lavoro modifichi il cervello dell’utente, impoverendolo, il contrario dell’enhancement.

    Sembra anche però che l’essere umano sia fatto in modo da farsi ipnotizzare da ogni novità.

    Penso alla televisione, da bambini non c’ l’avevamo, poi in cortile una famiglia l’ha comprata, la sistemava la sera davanti alla porta e tutti si portavano la sedia per vedere “campanile sera”.

    Di buono c’è che non era una fruizione solitaria.

    Negli anni 80 sono arrivati i primi PC, non c’era internet, e tutti si dedicavano ai videogiochi negli intervalli di lavoro.

    Poi sono arrivati i cellulari, i social, per tanti un narcisismo travestito da ipersocialità, ed ora l’AI, che se simula il comportamento di una persona vera si può avere l’illusione di non essere soli, come invece di fatto si è.

    Mi chiedo, allora le élite delle multinazionali padroni dell’AI, i loro collaboratori e famigliari non la usano, altrimenti la loro intelligenza si abbasserebbe al livello degli utenti schiavi, e col tempo non avrebbero più l’intelligenza per opprimerli. Forse il capitalismo con la sua smania di distruggere per accumulare beni arriverà anche a distruggere se stesso.

    Come in tutte le cose ci saranno anche aspetti positivi, penso ad ambiti professionali specifici

    con macchine che consentono prestazioni ritenute prima impossibili.

    Mah..devo pensarci, se provare l’AI LLM o aspettare ancora un po’, per intanto mi scarico i due studi dei quali hai indicato il link, e ho cominciato anche a leggere il libro Su AI ed educazione al quale ha partecipato Abele (il tuo ho finito di leggerlo da qualche giorno). Il problema però più che personale è sociale, visto che l’AI come le altre cose citate sopra si diffondono e si sono diffuse come un’epidemia.

    "Mi piace"

  2. @Giancarlo: è sempre un piacere trovarti in calce ad uno scritto intento a condividere pensieri.

    ovviamente non è l’utilizzo in sé delle AI di tipo LLM ad essere deleterio. come avrai intuito, le due principali variabili che influenzano l’esito dell’interazione tra AI di tipo LLM e cervello umano non possono che essere: (a) età e capacità intellettive di chi le utilizza e (b) durata e assiduità dell’utilizzo (numero di ore al giorno).

    ergo, visto che sei adulto e vaccinato (nonché dotato di senso critico spiccato), i tuoi network cerebrali non corrono e non correranno particolari pericoli

    : )))

    puoi anche divertirti a studiare il funzionamento delle diverse AI confrontando le diverse modalità di risposta/censura/interazione di ognuna. personalmente, preferisco Deepseek, ma “il mercato” è in rapida evoluzione… come avrai letto è arrivata ChatGPT-5, anche se dopo il lancio è stata stoppata perché poco empatica e meno “servile” (cosa che ha scontentato non poco molti utenti), emblematico che sia comunque stata progettata con diverse “personalità” (Cynic, Robot, Listener e Nerd: gli abbonati possono scegliere quella che preferiscono…), in più si riducono del 45% le ormai famose “allucinazioni” rispetto a GPT-4.

    il mondo, davvero, non sarà più come prima.

    you wrote: “se mi pagassero ogni saggetto, me ne farei fare 10 al giorno e porterei a casa un po’ di soldi,” mmm… noto un vulnus logico, qui: perché dovrebbero pagare te per fare qualcosa che può tranquillamente fare l’AI di proprietà di “€ssi”?

    : ((

    sul fatto che il capitalismo arrivi a distruggere se stesso sono più che d’accordo… e non si tratta solo di un’ipotesi: la storia ci insegna che ciclicamente accade (come previsto da Keynes) o mediate crisi globali o mediante guerre mondiali.

    chiudo convenendo con te che “il problema però più che personale è sociale” anche se vedo un’inevitabile continuità tra la persona e la società (eh, direi che trattasi di rapporto biunivoco)

    un abbraccio forte, fratello, e speriamo che l’AI ce la mandi buona…

    "Mi piace"

  3. Malos mammaia a te che sai sempre come far girare le parole nella testa, tanto che credo che prenderò la via d’ex.it per cercare il mio posto nell’orto – con la t e possibilmente anche con pomodori verza e il bosco che sale lento fino a una lontanissima cima. e comunque senza ci e senza ma, se la salita non porta fatica non c’è gusto né di montagna né di pianura solo una discesa vorticosa splash

    "Mi piace"

  4. Ioleee! che piacere vederti passare di qui! (però malos andrebbe scritto sempre minuscolo così non mi serve la scala per leggerlo).

    : ))))))

    ohi… son d’accordo con te, l’orto è una sorta di paradiso terrestre o almeno lo è per un contadinano, è un luogo magico dove c’è posto e con/cime per tutti.

    : ))

    e pure sul “gusto” della fatica siamo in buona sintonia. la fatica è una fedele compagna di vita (e porta buoni consigli)… “nulla si ha senza fatica” amava ripetere mio nonno (e credo che avesse ragione). eh, altri tempi… tempi in cui i padri costituenti erano così *folli* da fondare la Repubblica sul lavoro.

    : ((

    vebbè, che peggio non venga. comunque l’unica risorsa che non deve mai mancarci è il riso (riempie la mente e la pancia). anche per questo, nei festivi, per fare lo scemo e fare più fatica, mi metto al lavoro nell’orto a mezzogiorno in punto… mi capita d’intuire cose incredibili quanto il sole a picco mi scalda i pensieri! ad esempio, qualche settimana fa ho scoperto che quando cadono perpendicolarmente al suolo, i raggi del sole sono orto gonali.

    : )

    un abbraccio forte fortissimo.

    "Mi piace"

Scrivi una risposta a iole toini Cancella risposta