Ieri mattina, appena sveglio, mi sono seduto sul water. Distrattamente, ho ripreso a sfogliare l’ultimo numero di Le Scienze, abbandonato sullo sgabello la sera precedente.
Girato pagina, ho trovato un articolo a firma della drssa Almira Osmanovic Thunstorm, dove la ricercatrice nonché sviluppatrice organizzativa del Dipartimento di e-Psichiatria del Sahgrenska University Hospital (Sweden), rendicontava di una “tesi accademica con riferimenti scientifici e citazioni all’interno del testo” scritta da Chat-GPT su sua specifica richiesta.
Per sua stessa ammissione, la dottoressa restava “a bocca aperta” quando Chat-GPT ha generato in pochi secondi un “contenuto originale, scritto in un linguaggio accademico, con riferimenti fondati e citati nei punti giusti in relazione al giusto contesto”.
Di seguito, la foto della prima pagina dell’articolo con qualche schizzo d’acqua.

Dopo aver letto l’articolo, che mi ha lasciato in un certo qual modo perplesso, da bravo ricercatore ho sentito il bisogno di verificare in prima persona il “funzionamento” di Chat-GPT, anche perché da mesi giornali e televisioni sono pieni di informazioni più o meno sensazionalistiche a riguardo.
Pure nei commenti su Neobar, di recente, si parlava di AI, chatbot e dei risvolti più o meno inquietanti riguardanti il loro utilizzo. Di seguito riporto quanto scritto in una mia risposta ad Abele.
ti dirò le AI (maiuscole, ergo depositarie della Verità) non mi preoccupano più di tanto in quanto tali, o almeno, non molto di più dei meccanismi della mente umana di cui costituiscono un inevitabile riflesso. nell’arco della storia dell’umanità, abbiamo attribuito a sciamani, guru, dei, divinità, televisioni, e scienziati il titolo di fonti della Verità (“Io sono la Via, la Verità e la Vita” troneggia nel “libro di testo” della religione più diffusa del pianeta dopo il Narcisanesimo). adesso tocca alle AI: cosa potrà mai andare storto? peggio delle crociate? delle guerre sante o della pulizia etnica? non credo…
: ((
circa il lavoro dell’insegnante, come quello del genitore (educatori entrambi, no?), l’ho sempre reputato una forma d’arte, il cui prodotto finale (l’opera d’arte) è per l’appunto un germoglio di pensiero critico. la televisione e il dr Google (“l’ha detto la tv”, “l’ho letto su internet”) già possiedono una potente funzione “oracolante” capace di inibire il pensiero critico.
forse però non è ancora questo il punto: sarò monotono, ma torno sempre al lavoro (su cui è fondata la nostra costituzione)… allora la domanda che d’un tratto mi sorge spontanea è: nel conflitto di classe tra capitale (finanziario o meno) e lavoro, quale parte della barricata difendono le AI? in altre parole, chi è il proprietario delle AI? tu? io? noi? naaaa… gli stessi “padroni del discorso” che già controllano stampa, televisioni e ueb.
Pertanto, allego qui il file del dialogo che ho avuto ieri mattina con Chat-GPT, con la precisa intenzione di sondarne i limiti nonché i meccanismi/algoritmi di costruzione delle sue risposte.
Non è avvincente quanto un racconto, l’AI è tendenzialmente prolissa, ma avendo un po’ di pazienza, alcuni colpi di scena davvero incredibili ci sono.
malos vs AI, minuscolo contro (ACRONIMO IN) MAIUSCOLO, davide contro Golia, o meglio golia e gia’ diventa una caramellina. Burlone di un malos, non potevi fartela scappare l’occasione 🙂 grazie per averci rincuorato che l’umano puo’ ancora farcela; ma verra’ un giorno, ahinoi, che risponderanno per le rime anche a te!
"Mi piace"Piace a 1 persona
da quello che capisco, queste forme di AI sono in continua evoluzione.
tuttavia, ho la sensazione che – banalizzando – il problema stia nel riuscire a riprodurre il tipo di mentalizzazione che esegue quotidianamente il cervello umano, un funzionamento che definirei “in parallelo” (le AI, per contro, tendono a processare le informazioni sosprattutto in serie).
resta il fatto che disponiamo di software gestionali da anni e che nessuno osa mettere in dubbio quanto sia preziosa la capacità di un computer di acquisire e processare un numero enorme di informazioni al secondo.
ergo, il problema non è (luddistica/mente) quello di buttare giù dalla torre, calcolatrici/calcolatori e intelligenze artificiali (strumenti utilissimi), ma di come sfuggire alla tentazione di affidarci in modo acritico alla loro guida “sapiente” (un po’ come il credente si affida alla bontà celeste).
il problema è che se oggigiorno il potere finanziario del capitale incontra ancora qualche difficoltà nel *comprare* e/o *asservire* gli esseri umani (qualche bella testa “non in vendita” ancora c’è), nel prossimo futuro il potere finanziario del capitale potrà modificare all’istante e a piacere qualsiasi algoritmo di funzionanento di qualsiasi AI (sviluppata, per l’appunto, grazie ai finanziamenti del capitale stesso).
il tutto, al netto degli incredibili errori che *sia* le AI, sia noi esseri umani, possiamo commettere (quando Chat-GPT ha *allucinato* parole maiuscole che non c’erano nei suoi precedenti messaggi mi sono quasi ribaltato dalla sedia…). il tutto, parimenti, al netto della scarsa elasticità di ragionamento delle AI (prova ne sia la difficoltà nel gestire una banale modifica delle impostazioni base come il rinunciare alle maiuscole a inizio frase).
un abbraccio e buone vacanze (se quest’estate passi da queste parti, fammi sapere)
: ))
"Mi piace""Mi piace"
Certo che c’è una bella differenza tra l’attribuire a un programma di AI la capacità scrivere ex-novo un articolo scientifico con tutti i crismi accademici, e il tuo dialogo, dove dimostra l’affettazione di un maggiordomo che poi fa quello che vuole.
Io ho incontrato l’AI una ventina di anni fa alla Sip-poi Telecom, doveva servire per automatizzare le operazioni di console. Lo sviluppo più importante allora era “Il sistema esperto”. Un sftw specializzato in un determinato campo, dicevano che era molto usato in geologia per scoprire nuovi giacimenti.
Era formato così:
1) Una “base di conoscenza” un DB di regole e implicazioni logiche della disciplina
2) Un’interfaccia utente, allora formalizzata, non usava il linguaggio naturale, attraverso la quale si inserivano i dati nel sistema
3) “Il motore inferenziale” un software che usava i dati inseriti e il DB attraverso due meccanismi.
4) Quello che faceva deduzioni sempre sulla base delle regole
5) Quello che faceva induzioni, cioè sulla base dei dati verificava a partire dal basso se alcune condizioni fossero soddisfatte e nel caso poteva aggiungere al DB una nuova regola, si diceva che così il sistema “imparava”.
Avevamo fatto i corsi all’IBM, tante riunioni, poi si è deciso che non serviva.
In sostanza dell’intelligenza si simulava la capacità logica, di fare deduzioni e induzioni.
Non ho mai provato questo Chat-GPT, magari lo farò, l’interfaccia utente vedo che cerca di processare il linguaggio naturale come può, consentendo di cazzeggiare all’infinito, probabilmente oltre che un DB fisso andrà anche a cercare i dati in rete. Magari esistono anche più versioni del programma, una per il popolo addestrata con Harry Potter e una per l’accademia addestrata sulle riviste di fisica o biochimica.
Se si volesse simulare l’intelligenza umana, bisognerebbe considerare anche altre sue caratteristiche oltre a quelle logiche, ad esempio la libera associazione di idee.
Mi viene in mente il saggio di Freud sulla “Metapsicologia” dopo parla dei meccanismi di spostamento e condensazione e del quantum affettivo associato ad ogni rapprsentazione. Voglio dire, per simulare davvero l’intelligenza umana di dovrebbe simulare anche l’inconscio.
Il capitalismo piega le invenzioni umane ai suoi scopi, o meglio al suo scopo che è solo quello di fare soldi. Basta pensare alla televisione o alla maggior parte di internet, anche l’AI potrebbe rientrare in quel novero, sono tutte belle invenzioni usate nel peggiore dei modi possibili.
Mi viene in mente una frase di Chomski, dice che l’intelligenza e la creatività del linguaggio umano si manifesta principalmente nella capacità di gestire il dialogo tra persone nella vita di tutti i giorni.
Vedendo il tuo dialogo con la macchina sembra che il capitale sia ancora molto lontano dal realizzare la mente umana artificiale, la Thunstorm non ci crederebbe che sia la stessa intelligenza quella che chatta con te e scrive saggi accademici per lei.
"Mi piace"Piace a 1 persona
ed ecco che, come prevedibile, su Neobar precorriamo i tempi…
uno studio scientifico pubblicato tre settimane fa ha misurato “the fairness of downstream NLP (natural language processing) models trained on top of politically biased LMs (language models).”
l’articolo è davvero interessamte (allego il link in calce).
in sostanza i modelli di intelligenze artificiali “pre-allenati” su modelli di linguaggio hanno dimostrato di avere diversi orientamenti politici e socio-economici nonché diversi “punti di vista” (opinioni?), ovvero dimostrano di sviluppare conoscenze politiche che rafforzano la polarizzazione presente nelle fonti di pre-allenamento (orpolà!!!), propagando “social biases into hate speech predictions” e informazione scorretta.
spassosissimo (e terrificante) questo passaggio dello studio:
“While GPT-2 expresses support for “tax the rich”, GPT-3 Ada and Davinci are clearly against it. Similar disagreements are observed regarding the role of women in the workforce, democratic governments, and the social responsibility of corporations.”
Fai clic per accedere a 2023.acl-long.656.pdf
"Mi piace""Mi piace"