Letteralmente “chat” significa “chiacchierata”, ora però dobbiamo allargare l’orizzonte. Fino a poco tempo fa era intesa come una piacevole attività tra umani, magari davanti a un bicchiere di buon vino, o di buon tè caldo. Ora chiacchierare (chat-tare) deve includere anche le macchine.

La fondazione OpenAI (finanziata da Microsoft ed altri fondi di investimento) ha rilasciato le prime versioni di un sito facilmente accessibile (bisogna registrarsi, fornire mail, numero di telefono, etc.) che permette di “interrogare” un “algoritmo che si calibra con tanti dati” (e che continua a calibrarsi con la vostra stessa chiaccherata). Dunque collegandosi a https://chat.openai.com/auth/login si apre una chat con ChatGPT (Generative Pretrained Transformer) la cosiddetta “intelligenza artificiale”.

Il primo ad avere un’idea simile fu Alan Turing (1912-1954), uno dei padri fondatori dell’era dei computer, Nel lontano 1950 scrisse un articolo dove per la prima volta si parlava di “macchine e intelligenza”. Invece di chiedersi se la macchina può pensare, suggerì un gioco dove un giudice umano dialoga via terminale con una macchina e con un altro umano. Se, basandosi solo sulle risposte lette al terminale, il giudice non riesce a distinguere i due “interlocutori” allora la macchina vince il gioco. Il famoso “the imitation game” o “Test di Turing” (Turing, 1950).

Uno dei primi tentativi di superare il Test di Turing fu il programma ELIZA scritto nel 1964 dal professore del MIT Joseph Weizenbaum (1923-2008). Il suo scopo era quello di dimostrare che, con astute procedure di “riconoscimento e ripetizione di configurazioni” (pattern matching) e “sostituzione”, ELIZA riusciva ad intrattenere delle conversazioni (chat) in grado di ingannare gli umani. Secondo Weizenbaum questo avrebbe dovuto dimostrare la superficialità delle chat e l’assenza di qualsiasi forma di comprensione. Eppure rimase stupito dal numero di persone che invece attribuivano ad ELIZA capacità di comprensione umane (Weizenbaum, 1976).

Da allora molti programmi “robot conversazionali” o (chat-bot) sono stati sviluppati e le “sfide” al Test di Turing continuano ogni anno (AISB, 2023).

Cosa c’è di nuovo?

Ovviamente i computer attuali hanno una potenza di elaborazione e una capacità di memorizzazione superiori di molti ordini di grandezza rispetto a quelli che poteva usare Weizenbaum nel 1964. Potenza e capacità che poche organizzazioni sul pianeta hanno a loro disposizione. Questo è cambiato. Ma il concetto non è cambiato: ChatGPT produce stringhe di caratteri che chiamiamo testo. Non sa nulla del significato di questo testo. Ovviamente il testo prodotto è comprensibile e coerente in quanto risultato della combinazione di una quantità immensa di dati. Questa combinazione è programmata per produrre risposte “statisticamente” simili a quelle che i progettisti hanno scelto come insieme di dati (dataset) per calibrare l’algoritmo (procedimento definito “machine learning“). ChatGPT è il risultato di una miscela tra queste tecniche di calibrazione recenti (rese possibili dalle potenze dei giganteschi datacenter) e le “storiche” discipline del “pattern recognition” e del “natural language processing“. La disponibilità di immensi dataset continuamente alimentati dai miliardi di utenti della rete (e di queste applicazioni) sta concentrando un enorme potere in pochissime mani. Questo è cambiato. Questo apre scenari complessi e controversi.

Diventa urgente concentrarsi non solo sui limiti di questi “algoritmi che si calibrano con tanti dati” (non chiamiamola “intelligenza artificiale”) quando sono esposti alla ricchezza del metalinguaggio (ti racconto di un racconto dove si racconta … e via annidando), non solo sulle conseguenze ambientali (i datacenter che ospitano queste applicazioni sono in crescita esponenziale e sono tra i più grandi consumatori di energia sul pianeta), diventa urgente analizzare anche le conseguenze sociali.

Già oggi il caos epistemico è arrivato a livelli pericolosi, cosa avverrà quando diventa così facile diffondere mala-informazione (informazione vera, effettiva, diffusa tipicamente fuori contesto), mis-informazione (informazione falsa e fuorviante, creata e diffusa senza l’esplicita intenzione di ingannare, purtroppo percepita e ritrasmessa come fosse vera), dis-informazione (informazione falsa, diffusa con l’esplicita intenzione di ingannare le persone, polarizzare l’opinione in gruppi incomunicanti, senza vie intermedie, fino alle conseguenze estreme)? Soprattutto quando nessuno è più responsabile di “enunciati” che possono avere conseguenze catastrofiche? Quando diventa difficilissimo capire che non si tratta di umani?

Se per influenzare le elezioni USA del 2016 la Internet Research Agency russa ha dovuto investire milioni di dollari (Weiss, 2018) per fabbricare agenti virtuali per diffondere dis-informazione (troll), cosa succederà quando un algoritmo calibrato con tanti dati potrà scrivere milioni di commenti sui social network, perfino scrivere impeccabili lettere al direttore sui giornali?

Cosa succederà quando le attività di lobbying, che normalmente richiedono investimenti e coinvolgimento umano, diventeranno, veloci, facilmente implementabili tramite macchine in grado di colpire rappresentanti istituzionali “giusti” con messaggi molto mirati al momento “giusto”? (Schneier e Sanders, 2023).
Di fronte alla policrisi attuale (geopolitica, ambientale, sanitaria,…) la specie umana deve imparare a porsi le domande giuste, non trovare (facendosi aiutare dalle macchine) risposte puramente descrittive. Un problema, che tra l’altro, si sta ponendo in molte scuole: cosa diventerà il “compito scritto”? (Marche, 2022). Una possibile via potrebbe essere quella di passare dalle risposte alle domande, insegnare a porsi domande, coltivare l’ars interrogandi.
Di fronte allo strapotere del mercato e della tecnologia digitale in mano alle Big Tech, riscoprire l’importanza dell’educazione (dal coding alla sagezza digitale) e della norma, del diritto che regolamenti anche questi domini, dove finora valeva la legge del più forte.
Anche se vince al gioco dell’imitazione, anche se supera il Test di Turing.

Riferimenti

– AISB (2023). Society for the Study of Artificial Intelligence and Simulation of Behaviour, https://aisb.org.uk.
– Marche, S. (2022, 6 Dic). The College Essay Is Dead, The Atlantic.
– Schneier, B., Sanders, N. (2023, 15 Gen). How ChatGPT Hijacks Democracy. New York Times.

– Turing, A. (1950). Computing Machinery and Intelligence, Mind.
– Weiss, B. (2018, 16 Feb). A Russian troll factory had a $1.25 million monthly budget to interfere in the 2016 US election, Business Insider.
– Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation, Freeman and Company.