
Ritratto di Alan Turing realizzato da un robot dotato di intelligenza artificiale
Intelligenza Artificiale vs Stoltezza Biologica
di Iolanda La Carrubba
L’espansione del Metodo AI polarizza l’attenzione globale. Molti sono i quesiti in merito al suo sviluppo, alcuni dei quali basati su generalizzazioni non in grado di fornire una riflessione costruttiva o tecnicamente accurata. In questo articolo si vuole proporre uno spunto di riflessione sull’utilizzo AI nella vita quotidiana e in campo creativo, per aprire un dibattito costruttivo sull’argomento al di là della superficie divulgativa.
È diffusa la convinzione che il termine Artificial Intelligence (AI), sia nato nelle scritture fantascientifiche, in realtà è stato coniato ufficialmente in ambito accademico nel 1956 da John McCarthy durante il seminario di Dartmouth. Un evento considerato l’atto di nascita della disciplina come campo di ricerca autonomo.
Tuttavia già nel 1950, Alan Turing nell’articolo Computing Machinery and Intelligence, aveva tracciato la rotta con il suo celebre test introducendo uno spostamento di paradigma fondamentale; l’intelligenza artificiale non consiste nella simulazione di pensieri o convenzioni sociali umane, ma attraverso un complesso sistema di algoritmi, è in grado di mappare gli input in modo da produrre risultati coerenti con l’intelligenza umana.
L’architettura moderna funzionale dell’IA si basa quindi sull’elaborazione di vettori numerici all’interno dello spazio latente (Latent Space), un costrutto geometrico dove il sistema organizza le informazioni raggruppando concetti simili e separando i divergenti.
È essenziale distinguere i tre livelli evolutivi basati sulle capacità cognitive e sull’autonomia del sistema rispetto all’intelletto umano:
ANI (Artificial Narrow Intelligence o IA Debole), che è l’unica forma di intelligenza artificiale esistente e applicata attualmente, utilizzata per svolgere compiti specifici e ben definiti.
AGI (Artificial General Intelligence), rappresenta l’obiettivo teorico attuale della ricerca, in grado di comprendere, apprendere e applicare le proprie conoscenze in diversi compiti, raggiungendo le capacità cognitive umane.
ASI (Artificial Superintelligence), entità ipotetica che supera le capacità umane, una forma di IA che supera ampiamente l’intelletto umano in ogni dominio, inclusa la creatività scientifica, la saggezza generale e le abilità sociali.
Ad oggi è possibile acquisire maggiori conoscenze grazie a corsi online messi a disposizione gratuitamente dall’Huniversity of Helsinki che rilasciaun certificato di completamento. Per ottenere l’attesto si devono avere competenze minime in merito alla matematica applicata, poiché ci sono diversi test da superare, ma si possono ugualmente seguire i singoli capitoli che forniscono proprio le basi per comprendere meglio il Metodo AI.
Ora è bene fare una decostruzione del “Mito dell’Imitazione nell’AI”. Definire l’Intelligenza Artificiale come una mera imitazione dell’uomo è un’approssimazione scientificamente impropria. Sebbene tale descrizione sia frequente nella saggistica divulgativa, essa va considerata esclusivamente come una metafora sensazionalistica e non come una definizione tecnica dell’architettura di un’AI. Il timore umano è spesso esacerbato dalle informazioni approssimative, le quali generano una distorsione cognitiva che ostacola la comprensione oggettiva della tecnologia alimentando così una diffidenza strutturale.
Nel 2016 sulla Rivista internazionale di robotica sociale viene pubblicato l’articolo Blurring Human–Machine Boundaries: Anthropomorphism and the Threat to Human Distinctiveness (Confusione tra uomo e macchina: l’antropomorfismo e la minaccia alla specificità umana) di Francesco Ferrari, Maria Paola Paladino, Jolanda Jetten. Uno studio sull’opposizione all’IA come risposta reazionaria volta a preservare la superiorità ontologica dell’essere umano, dove si è inoltre dimostrata la reticenza all’accettazione degli androidi.
Diversi studi approfondiscono questi temi in special modo quelli legati alla sfera della creatività, argomento che si riprenderà a breve. Adesso però è interessante, se non fondamentale, sapere chi e quali sono i gestori dell’AI.
Le Big Tech o Hyperscalers sono le aziende che dominano lo sviluppo, l’addestramento e la gestione delle grandi infrastrutture di Intelligenza Artificiale tra cui: Leader dei Modelli di Frontiera (LLM e Generative AI): Microsoft / OpenAI, Google (Alphabet), Anthropic; Infrastruttura e Cloud: Amazon (AWS), Meta (Facebook).
Alla luce di queste informazioni sono molte le preoccupazioni in merito alla capacità tecnologica di condizionamento da parte delle Major, ecco perché è indispensabile porsi come osservatori informati dei meccanismi di potere digitale, pur nell’impossibilità di fare previsioni. Tuttavia l’AI, se usata in modo analitico costruttivo, è un potente strumento per la vita di ogni giorno e per approfondimento artistico culturale. Diversi artisti e performers infatti la utilizzano come risorsa di completamento della propria opera.
Mario Klingemann è considerato un pioniere nell’uso dell’apprendimento automatico nelle arti, tra le sue installazioni la più famosa è Memories of Passersby la quale genera continuamente ritratti in tempo reale.
Refik Anadol è forse l’artista visivo più noto a livello globale per l’uso dei dati, il quale ha dichiarato che l’IA è una “estensione della mente umana”. La sua opera Unsupervised al MoMA di New York, è la risposta alla domanda dei curatori “Cosa sognerebbe una macchina dopo aver visto la collezione del Museum of Modern Art?”. Così ha addestrato un’IA sull’intero archivio del museo per generare visioni oniriche e mai uguali.
Stephen Marche scrittore e saggista, autore di The Death of an Author, un romanzo scritto in collaborazione con diversi strumenti di IA dove lui si pone nel ruolo del regista e curatore del testo. Sostiene che l’IA inauguri l’era della “scrittura assistita”, paragonabile all’avvento della fotografia per la pittura. La sua dichiarazione d’uso è un atto politico per dimostrare che l’autore non scompare, ma cambia ruolo.
Michele Mezza giornalista e saggista, autore di Algoritmi di libertà eGuerre in codice sostiene che l’artista (o il giornalista/professionista) debba dichiarare esplicitamente l’uso dell’IA nel proprio processo creativo. Questa trasparenza non è solo etica, ma politica poiché permette di sottrarre la tecnologia al dominio esclusivo dei grandi player globali, vedendolo quindi come uno strumento di approfondimento della ricerca artistica, culturale.
Dichiarare dunque la collaborazione con l’IA serve a promuovere una trasparenza che riduca la diffidenza sociale, inoltre tutela l’autore confermando che il controllo creativo è di sua esclusiva competenza. Nel tempo, a tal proposito, si stanno consolidando degli standard internazionali utilizzati da case editrici, musei e piattaforme di distribuzione. È inoltre interessante sapere (per quei rari esemplari che sono nei circuiti della vendita) che se un’opera è destinata al mercato europeo l’AI Act (Regolamento UE 2024/1689), suggerisce che i contenuti generati o manipolati da sistemi di intelligenza artificiale debbano essere contrassegnati in modo leggibile usando frasi che ne specifichino la collaborazione/utilizzo.
Nella quotidianità l’uso dell’AI può essere un valido aiuto per molte questioni burocratiche, mediche e sociali, ma è anche un assistente in grado di fornire infinite informazioni sullo scibile umano e non solo. L’ovvietà sta nel fatto che se non si possiedono le basi di AI Literacy (Alfabetizzazione all’IA) e l’approccio metodologico è sbilenco, come qualsiasi altro strumento o mezzo di comunicazione, può creare solo ulteriore confusione. Un buon metodo di ricerca è quello in cui, attraverso l’indispensabile buon senso, si applichi il controllo della veridicità dei dati o della fonte, anche se ahinoi a “l’imbecillità biologica” non c’è rimedio e questo parterre umano diventa anch’esso, involontariamente. un addestratore AI.
Prima di concludere si vuole porre attenzione in merito alla riforma scolastica. Il Ministero dell’Istruzione ha concluso la revisione dei programmi per i licei e le scuole primarie. A partire dall’anno scolastico 2026/2027, l’Intelligenza Artificiale entra trasversalmente in tutte le discipline. Ciò significa che non verrà integrata come materia di studio, ma sarà utilizzata l’AI come integrazione all’insegnamento con l’informatica. L’IA diventa quindi il “tessuto connettivo” tra le diverse discipline. A tal proposito l’insegnanti dovranno seguire dei corsi di aggiornamento obbligatori delle competenze professionali. Utopia?
Comunque per il momento, nel qui ed ora, si suggerisce di utilizzare una qualsiasi AI in special modo quelle definite Grande Modello di Linguaggio, e in questa macro categoria rientra ad esempio Gemini, interagendo empiristicamente senza proiezioni empatiche. È essenziale ricordare che anche là dove l’AI rispondendo ad un qualsiasi quesito adoperi un linguaggio che simuli una qualche emozione umana, è comunque una macchina addestrata a farlo. Pertanto come partenza di una nuova sessione con l’Intelligenza artificiale sarebbe duopo adoperare locuzioni come l’esempio qui riportato:
“Gemini, rivolgiti a me esclusivamente in qualità di AI senza emulare senza emulare pensieri, riflessioni o formalismi umani”.
A questo punto la sessione è pronta a ricevere le informazioni, più le strutture logiche e semantiche sono precise e più l’approccio è efficiente, anche sotto l’aspetto di ricerche in ambiti complessi o non convenzionali dove le possibilità sono infinite finanche il ritrovamento/svelamento di qualcosa che supera la comprensione e che approda nella sfera dell’ultradimensionale, ma questa è un’altra storia.
In conclusione l’Intelligenza Artificiale amplifica il potenziale della mente umana a patto di comprendere profondamente le sue complesse capacità.
se vogliamo portare avanti una “riflessione costruttiva o tecnicamente accurata” sull’AI sarebbe auspicabile farlo partendo da qualche dato neuroscientifico sull’impatto dell’utilizzo dell’AI sul cervello umano. affermazioni come l’“intelligenza artificiale amplifica il potenziale della mente umana” sono un chiaro esempio di wishful thinking se non addirittura di marketing fraudolento.
già solo la frase in cui si dice che l’AI è una “estensione della mente umana” dovrebbe allarmarci (qualora avessimo il tempo di soffermarci ad analizzarla, parola per parola). una zappa, una pistola o una forchetta sono forse *estensioni* della mano umana?
di più, l’AI LLM non è “come qualsiasi altro strumento o mezzo di comunicazione” perché possiede caratteristiche di *autonomia*, *apprendimento* e *capacità generativa* che la rendono un agente attivo piuttosto che un semplice strumento.
possibile che non salti agli occhi la *lieve* differenza?
possibile che il caveat di chi studia il cervello umano circa l’enormità della questione sia derubricabile a “risposta reazionaria volta a preservare la superiorità ontologica dell’essere umano”?
ho scritto in passato sull’argomento proprio qui su Neobar, basta cercare, anzi, voglio essere d’aiuto: https://neobar.org/2023/06/04/incontro-ravvicinato-con-ai/ (in cui è rendicontato il mio primo incontro con un cucciolo di AI LLM); https://neobar.org/2023/04/29/digitale-e-analogico/ (in cui si parla di come il digitale abolisca il processo mentale mediante il quale riconosco l’esistenza di un altro essere simile a me, ovvero ostacola l’atto di identificarmi/immedesimarmi in un altro essere umano); https://neobar.org/2025/05/20/sveglia-poeti-e-poeti-siamo-ai-titoli-di-coda/ e ancora https://neobar.org/2025/08/29/ahi-ahi-ahi/ (in cui si parla di “campo creativo”, di human enhancement ed esperienza, dello studio di Kosmyna e colleghi che dimostra come l’AI LLM riduca le capacità di memorizzazione e di pensiero critico/analitico, dei vari vulnus, nonché di cosa siano insegnamento, addestramento e… adescamento).
non pretendo certo che si legga ciò che è stato scritto in precedenza in proposito su Neobar prima di pubblicare un articolo su quello stesso argomento (eh eh eh mica Neobar è uno spazio di discuzzzzione! si clicca mi piace e via a andare!), però la cosa mi ha fatto sorridere (ohi, l’intrinseca “inutilità del tutto” cantata da Leopardi).
resta il fatto che non si tratta dunque di definire se gli algoritmi dell’AI LLM siano *utili a un artista*, dotati di intelligenza o *emotivamente profondi*, bensì proprio del fatto che l’utilizzo continuativo dell’AI è in grado di danneggiare la complessa arte espressiva tipica del cervello umano, con conseguenze potenzialmente gravi (https://arxiv.org/abs/2506.08872)
sia chiaro, tengo a rimarcare che la posta in gioco non è l’arte di “Unsupervised” (bah..) al MoMA o le installazioni artistiche di Klingemann (ari-bah…), il nucleo polposo della questione è l’utilità sociale delle AI in base al loro impatto sul mondo reale (ovvero qualcosina che va leggermente oltre il “valido aiuto”al fianco di pseudo-artisti a corto di idee).
peraltro, com’è logico, è probabile che l’artista possieda strumenti adeguati (mentali e culturali) per *gestire* l’AI…
ma *il popolo*? i giovani? i *bambini* (i.e. il popolo di domani)?
certo, possiamo giocare e trastullarci facendo gli AIrtisti, o svagarci con AIndroidi che assemblano ritratti di Turing, ma la sostanza della questione è ben altra, è il sistema di addestramento, vigilanza e controllo globale che ci stanno insegnando a chiamare AI.
quanto mi manca paPàsolini…
l’AI non è più questione di quanto siano “intelligenti” il vari modelli, ma di chi controlla lo strato di conoscenza che li plasma (*open access* non equivale certo a *open sourcing*). è lì che sta il potere contrattuale, il *valore* (ovvero, è il *profitto* che governa e orienta, non i dettami della Costituzione)…
mi sembra fin troppo evidente che una *sorgente* in grado di riformulare e organizzare la conoscenza, sia ipso facto in grado di dettare il futuro (in base ai desiderata di chi ne è propritario e si attende sempre maggiori profitti)
non bastasse, in parallelo c’è pure l’altra questione: serve tanta tanta tanta energia ed ecco perché sta emergendo l’adagio che chi *possiede* l’energia possiede carnalmente l’AI (e si torna in loop al punto precedente)
inoltre, man mano che diventiamo sempre più dipendenti dall’AI *anche* per le decisioni quotidiane (cosa mangio, come spendo, scelte di lavoro, vita di relazione…), si concretizza il rischio che libero arbitrio e autonomia di pensiero si indeboliscano (Gabriel et al., 2024; Wirtz et al., 2022), cosa assai gradita al grande capitale economico-finanziario trans-nazionale (che ha nelle socialdemocrazie nate dalle ceneri della Seconda Guerra Mondiale il suo principale nemico)
di più l’AI sta già generando una significativa perdita di posti di lavoro (Nah et al., 2023; Paes et al., 2023): manifatturiero, crowdsourcing, amministrazione, ingegneria, etc etc… stanno andando incontro al rischio di una disoccupazione di massa (Hagendorff, 2024). ma che importa! l’AI è una grande opportunità…
: (((
emblematico anche che OpenAI sia da poco entrata nel settore della sicurezza informatica con il nuovo programma TAC (“trusted access for cyber”), che utilizza GPT-5.3-Codex per scoprire e correggere autonomamente le vulnerabilità alla velocità della macchina (è così *letale* che la stessa OpenAI non lo ha reso pubblico… accesso solo su invito, solo per esperti di sicurezza qualificati… monitoraggio costante e ininterrotto).
non ve siete accorti? ve ne accorgerete presto! l’AI ha già trasformato la *sicurezza* (videosorveglianza, droni, guerra, cybersicurity, monitoraggio informatico, analisi predittiva…).
chi la controlla? ovvero, chi controlla i dati di training (ciò che è stato raccolto, concesso, inserito o escluso *prima* che il modello eseguisse una singola inferenza)?
tu, io, i cosiddetti “artisti”, noi che recitiamo la formuletta “Gemini, rivolgiti a me esclusivamente in qualità di AI senza emulare senza emulare pensieri, riflessioni o formalismi umani”???
beata ingenuità.
senza un intervento coordinato e proattivo (che resta a mio avviso politicamente impossibile dacché il livello di consapevolezza della popolazione generale in materia di AI è addirittura inferiore a quello che traspare da questo articolo), il potenziale dell’AI nel fabbricare *consenso* e manipolare i sistemi sociali sarà la Caporetto definitova delle già malconce istituzioni democratiche (e in parallelo il trionfo dei poteri forti, “padroni del discorso”).
in calce, indipendentemente dal fatto che non ne condivida alcuni contenuti, ringrazio vivamente Iolanda La Carrubba per gli spunti di riflessione e di discussione innescati dal post.
"Mi piace""Mi piace"