L’Intelligenza Artificiale è Ancora Stupida Ma non quanto chi la usa

L’Intelligenza Artificiale è Ancora Stupida Ma non quanto chi la usa

Manuale di sopravvivenza per tecnopitechi nell’alba dell’era delle macchine pensanti 

Benvenuti nella Preistoria Digitale 

Ma voi lo sapete in che epoca viviamo? No, eh? E meno male che siete qui a leggere questo blog, perché altrimenti sareste rimasti convinti che l’inizio del 2026 sia l’apice della civiltà tecnologica. Preparatevi a una doccia fredda, perché quello che chiamiamo “stato dell’arte” oggi, tra una manciata di anni verrà studiato con la stessa tenerezza con cui noi guardiamo le pitture rupestri. Benvenuti nell’archeologia del futuro, un’era di tecnologia tanto decantata quanto limitata, frammentata e, diciamocelo, spesso irrimediabilmente stupida.

Siamo circondati da aggeggi che si spacciano per “intelligenti”, ma che in realtà ci costringono a essere utenti passivi, schiavi di ecosistemi chiusi e incompatibili, invece che padroni dei nostri strumenti. La prova più lampante di questa farsa quotidiana? Provate a guidare una di quelle auto che i reparti marketing, con una fantasia degna di un venditore di fumo, definiscono “smart”. L’esperienza è un campionario di frustrazioni tecnologiche che farebbe ridere se non fosse tragicamente reale.

Per avere una navigazione decente, devi collegare il tuo smartphone, trasformando il costosissimo display dell’auto in un mero specchio di un altro dispositivo. E nemmeno uno specchio fedele! No, ti becchi una versione castrata delle tue app, con interfacce come Android Auto o Apple CarPlay che sembrano disegnate da un comitato di burocrati con l’obiettivo di massimizzare l’impaccio e minimizzare l’utilità. Messaggistica ridotta all’osso, navigazione goffa e, per carità divina, non provate a far partire un video. Certo, se concepite il telefono solo come un jukebox di canzoni, allora forse va tutto bene. Ma questa è una visione della tecnologia che si è fermata al Walkman.

E i comandi vocali? Ah, i comandi vocali! Un trionfo di inutilità. Puoi chiedere di abbassare il finestrino, un’azione per cui impiegheresti un decimo del tempo usando il dito, ma non puoi interagire con le impostazioni profonde del veicolo. Non puoi chiedere di disattivare quel fastidiosissimo cicalino che ti trapana il cervello perché hai osato superare di un chilometro orario un limite di velocità piazzato a caso. No, per quello devi navigare in sottomenù progettati con la stessa logica di un modulo delle tasse. È una tecnologia che non ti serve, ma ti comanda.

La cosa ancora più sconcertante è la tendenza di questi software a volersi agganciare a tutti i costi. Volete scollegare Android Auto dal menu dell’auto? Buona fortuna! Non troverete un semplice “Disconnetti” o “Cancella connessione”. No, troverete opzioni bizantine del tipo “Disattiva se nell’ultimo viaggio Android Auto non era attivo”. Un capolavoro di design che sembra pensato per confondere l’utente piuttosto che aiutarlo. E la stessa cosa vale per Apple CarPlay. Questa situazione è sostanzialmente iniqua, un piccolo esempio di come la tecnologia sia progettata per servire gli interessi delle aziende, non quelli degli utenti.

In questo deserto di incompatibilità, un barlume di speranza sembra arrivare da protocolli come l’MCP (Model Context Protocol). Lanciato da Anthropic nel novembre 2024, l’MCP è uno standard aperto che promette di creare connessioni sicure e bidirezionali tra le applicazioni di intelligenza artificiale e i sistemi esterni. L’idea è semplice ma rivoluzionaria: permettere finalmente alle AI di dialogare con database, API e strumenti esterni in modo standardizzato, come una sorta di “USB-C” per l’intelligenza artificiale. Un’utopia? Forse. Ma è l’unica via d’uscita da questa preistoria digitale in cui ogni dispositivo parla una lingua diversa e l’utente è l’unico, frustrato, interprete.

A person in a car with a large screen showing hourglass

Le Catene Invisibili della Finta Libertà

Scomodamente, come di consueto, vi regalo una riflessione che non apprezzerete. Quelle che ci vengono vendute come funzionalità per la nostra “sicurezza” sono, in realtà, raffinate catene digitali che limitano la nostra libertà e autonomia. Prendiamo i moderni sistemi di assistenza alla guida (ADAS). Sulla carta, sono meravigliosi. L’LDA (Lane Departure Alert) ti bacchetta se cambi corsia senza mettere la freccia, riportandoti dolcemente nella tua carreggiata come una mamma premurosa. Fin qui, passi. Ma il vero capolavoro di ingegneria paternalistica è l’RSI (Road Sign Information).

Questo sistema, obbligatorio per le auto di nuova immatricolazione nella sola, illuminata, Unione Europea, usa una telecamera per leggere i cartelli stradali. Se superi il limite di velocità, anche di un solo, misero, chilometro all’ora, l’auto inizia a emettere un segnale acustico. Non un allarme assordante come quello delle cinture di sicurezza slacciate, ma un bip insistente, irritante, che ti ricorda costantemente che sei un bambino indisciplinato sotto la tutela della tua automobile. E la parte migliore? Non puoi disattivarlo in modo permanente.

Certo, puoi zittirlo ogni volta che accendi l’auto, navigando tra i menù con la stessa gioia con cui si compila un 730. Ma alla successiva accensione, lui sarà di nuovo lì, pronto a giudicarti. Per legge. Questa configurazione si ripristina sistematicamente ad ogni avvio dell’auto. Non puoi toglierla con un comando vocale, non puoi renderla permanente. È una scelta deliberata, imposta per legge, e in questo momento storico, solo nella Comunità Europea.

Questa imposizione è la metafora perfetta di un approccio tecnologico e normativo che ci considera incapaci di decidere. Invece di darci strumenti per essere guidatori migliori, ci tratta come potenziali criminali da sorvegliare. È una deresponsabilizzazione mascherata da sicurezza. Pensateci: un limite di velocità piazzato a 30 km/h in una strada dove si potrebbe tranquillamente andare a 50, solo perché qualche amministratore locale ha voluto “lavarsi le mani” della responsabilità. E la macchina suona. Sempre. Ogni singola volta.

Il problema di fondo è che la tecnologia, e soprattutto l’intelligenza artificiale, dovrebbe permetterci di avere il controllo completo dei nostri dispositivi. Incluso il telefono, inclusa l’automobile, vale per la lavatrice, vale per il frigo, vale per qualsiasi cosa con la quale dovremmo poter comunicare semplicemente parlando. Se io dico “spegni la luce”, va bene. Ma se io dico “spegni questa configurazione fastidiosa”, oppure “alza la temperatura del frigo”, la macchina deve poterlo fare. Altrimenti siamo ancora alla preistoria.

E da queste piccole, fastidiose catene quotidiane, il passo è breve per arrivare a una riflessione ben più ampia sul ruolo della regolamentazione, sulla sovranità digitale e sulla geopolitica della tecnologia. Perché, vedete, chi decide quali catene dobbiamo indossare, raramente lo fa per il nostro bene.

 

Il Far West Digitale e lo Sceriffo Sdentato

Parliamoci chiaro: il mondo tecnologico è un Far West dominato da sceriffi americani che dettano legge ovunque, mentre l’Europa cerca disperatamente di fare la figura dell’arbitro imparziale, finendo però per sembrare uno sceriffo sdentato. Da un lato abbiamo l’egemonia delle Big Tech statunitensi, aziende-nazione più potenti di molti stati sovrani, che hanno costruito imperi basati su un modello di business semplice e spietato: espandersi, raccogliere dati, ignorare le regole e, se proprio va male, pagare multe che per loro hanno lo stesso impatto di una mancia al parcheggiatore.

Il mondo tecnologico si sta bipolarizzando. Per decenni è stato unicamente polarizzato verso gli Stati Uniti, con tutto quello che sappiamo essere un’egemonia strumentale e strumentalizzata. L’accesso ai dati è nativo da parte delle Big Tech americane, che con questi dati non fanno altro che diventare enormi, sempre più potenti. E nel momento in cui vanno a violare tutte quelle che sono regole e leggi non solo della Comunità Europea, ma internazionali, sostanzialmente se ne fregano e pagano delle multe.

Prendiamo il GDPR (General Data Protection Regulation), entrato in vigore nel maggio 2018. Un provvedimento sacrosanto, nato per proteggere i dati dei cittadini europei e restituirci un minimo di controllo sulla nostra vita digitale. Il regolamento ha introdotto diritti fondamentali: il diritto all’oblio, la portabilità dei dati, il consenso esplicito, la notifica delle violazioni. Peccato che per colossi come Meta (la casa madre di Facebook), sia stato poco più di un fastidio burocratico.

Avete mai provato a esercitare il vostro “diritto all’oblio” su Facebook? Buona fortuna. Potete “disattivare” il vostro account, un contentino che lascia i vostri dati, le vostre foto e i vostri pensieri nelle loro avide mani. Cancellare? Davvero? Ma se i dati sono il loro petrolio, perché mai dovrebbero chiudere i pozzi? Il mondo Meta non ti permette di cancellare il tuo account, lo puoi solo disattivare. Ciò significa che non c’è un vero obbligo, o meglio, non viene percepito l’obbligo di cancellare i dati nel momento in cui l’utente lo richiede. Funziona così per le banche, funziona così per qualsiasi tipo di entità o sito. Il mondo Meta se ne frega e dice: “Sai che c’è? Pago una multa, ma tanto i dati me li tengo perché è il campo di quello che poi vendo ad altre aziende, soprattutto relativamente al dato aggregato.” Pagano la sanzione, sorridono, e continuano a trivellare nella nostra vita digitale. La multa non è una punizione, è un costo operativo.

A group of people holding water guns and playing a game

Oggi, però, il gioco si è fatto ancora più sporco. Non si tratta più solo di rubarci i dati personali per venderci pubblicità mirata. No, adesso con l’intelligenza artificiale il paradigma si sposta prevalentemente verso la proprietà intellettuale, e non solo relativamente a quella che è la parte di privacy e sicurezza. Perché se io comunque contribuisco con i miei dati, con i miei prompt, con la mia esperienza utente, ad addestrare un modello o chiamiamola una macchina più in generale, che cosa succede? Che questa macchina apprende esattamente quello che magari io come persona ho impiegato decenni per imparare.

Stiamo parlando di conoscenze che abbiamo sviluppato in termini autonomi, perfezionando qualcosa che era già presente al mondo o inventando magari ex novo, oppure sostanzialmente facendo unicità assoluta di quello che è il nostro modo di essere, quello che siamo nella realtà. Per cui, di fatto, stiamo contribuendo a regalare la nostra proprietà intellettuale a qualcuno che poi la può mettere a disposizione di altri e che magari sono anche potenziali competitor nostri nella vita o nel lavoro.

È il più grande furto di proprietà intellettuale della storia, e noi partecipiamo felici, come tacchini che corrono verso il giorno del Ringraziamento. Tutto questo dovrebbe essere gestito e normato in un modo completamente diverso.

 

L’Etica? Chiedete ad Asimov (Tanto non l’ha letta nessuno)

In questo Far West senza regole, ci si aspetterebbe che almeno un briciolo di etica guidi lo sviluppo di tecnologie così potenti. E invece, il silenzio è assordante. O meglio, l’unica etica che conta è quella del profitto. Abbiamo completamente dimenticato le lezioni dei maestri della fantascienza, che già ottant’anni fa avevano previsto i rischi e posto le basi per un futuro più sicuro.

Il compianto Isaac Asimov, nel suo racconto “Runaround” del 1942, ci ha regalato le Tre Leggi della Robotica, un faro di buonsenso in un oceano di potenziale caos. Queste leggi sono state poi riprese e sviluppate nella celebre raccolta “I, Robot” del 1950, diventando un pilastro della fantascienza e un riferimento imprescindibile per chiunque si occupi di etica dell’intelligenza artificiale:

  1. Prima Legge: Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Terza Legge: Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Semplici, chiare, logiche. Generazioni di esseri umani sono cresciute convinte che l’evoluzione tecnologica che avrebbe portato alla creazione di robot, antropomorfi o meno, avrebbe garantito non solo che questi rispondessero ai comandi dell’essere umano in modo sistematico, ma soprattutto che tutti i robot evoluti e dotati di intelligenza artificiale avessero, a livello di firmware praticamente, l’inibizione al nuocere all’essere umano. Oltre ad avere come scopo primario la preservazione della salute dell’essere umano, anche a scapito della propria integrità fisica, avrebbero avuto l’inibizione relativamente al poter nuocere all’essere umano.

E invece? Completamente ignorate. La prova? Basta guardare cosa è successo tra il 2024 e il 2025. Mentre i filosofi da salotto disquisivano di etica AI, gli ingegneri militari sviluppavano e dispiegavano droni da combattimento autonomi, i cosiddetti “killer robots”. Macchine progettate con un unico scopo: uccidere esseri umani. La Prima Legge non è stata solo violata; è stata riscritta al contrario.

Il 2025, soprattutto, ci ha dimostrato che i droni militari vengono creati per uccidere l’essere umano. Non c’è nessuna legge della robotica che lo inibisce, non c’è nessun trattato internazionale efficace. Non gliene frega sostanzialmente un cazzo a nessuno. Nonostante le Nazioni Unite abbiano approvato una risoluzione per regolamentare queste armi nel dicembre 2024, con 166 voti favorevoli, la corsa alla loro produzione continua senza sosta. Nella guerra in Ucraina, un arsenale di droni AI è nato e si è sviluppato: macchine che, una volta agganciato un bersaglio, possono usare l’intelligenza artificiale per inseguirlo e colpirlo senza alcun intervento umano.

E così non dovrebbe essere, perché così come ci preoccupiamo di realizzare, soprattutto in Europa, l’AI Act per la preservazione dei diritti dell’uomo, se non ci mettiamo la salute fisica tra i diritti dell’uomo, abbiamo un problema proprio strutturale del come stiamo creando la macchina.

A group of stone pillars with text

E qui torna il mantra che ripeterei fino alla nausea: “la macchina sbaglia perché l’essere umano ha sbagliato a programmarla”. Questo è un super mega assunto fondamentale: quando la macchina sbaglia, nella quasi totalità dei casi è perché l’essere umano ha sbagliato a programmarla. La macchina sbaglia perché all’interno c’è tutta l’imperfezione dell’essere umano.

Un braccio meccanico in una fabbrica che colpisce un operaio è un bug, un errore di sistema. Può capitare che un robot colpisca un essere umano per sbaglio, può capitare che i robot antropomorfi attacchino o sembrino attaccare gli esseri umani, e anche qui è un errore di programmazione, non è che la macchina “sbarella” perché decide che vuole governare il mondo e quindi colpisce un essere umano.

Ma un drone progettato per cercare e distruggere un bersaglio umano non è un bug. È una feature. È la volontà umana, tradotta in codice, di creare un’arma che viola il principio fondamentale della nostra stessa sopravvivenza. L’imperfezione che abbiamo instillato nella macchina non è un errore casuale; è la nostra stessa, terrificante, malvagità.

 

Lo Specchio Deformante: Sessismo, Razzismo e altri Bias Cognitivi in Salsa AI

Se l’Intelligenza Artificiale è uno specchio della nostra società, allora siamo messi male. Molto male. Perché questo specchio non solo riflette le nostre imperfezioni, ma le amplifica, le codifica e le trasforma in verità algoritmiche. Se l’input è spazzatura intrisa di pregiudizi, l’output non può magicamente diventare oro colato. Sarà spazzatura, solo più veloce e su scala globale.

Partiamo da un dato di fatto: chi programma queste macchine? La stragrande maggioranza dei programmatori in ambito AI sono maschi, di una fascia di età specifica, e nella maggior parte dei casi di etnia caucasica. E per quanto possano essere brillanti, si portano dietro, come tutti, un bagaglio di bias cognitivi inconsci. Questi bias finiscono dritti nei dati di addestramento e, di conseguenza, nel comportamento del modello. Il risultato? Un’AI che è un concentrato dei nostri peggiori stereotipi.

I bias rimangono nei modelli, prevalentemente negli LLM (Large Language Models), perché il modello è stato addestrato con dati che contenevano questi bias, che sono poi l’attuale scibile dell’essere umano. E non c’è stato nessun tipo di intervento da parte di chi ha programmato o quantomeno addestrato il modello per cercare di mitigare questi bias.

Chiedete a un generatore di immagini di creare un “paramedico” e molto probabilmente vi mostrerà una donna, perché le infermiere sono prevalentemente donne. Lo stesso discorso se parlate di personale amministrativo, perché le segretarie sono donne. Non che lo siano realmente, ma se nella macchina mettiamo dati relativi a tutto lo scibile dell’essere umano e nell’essere umano c’è questo bias cognitivo per il quale i programmatori non intervengono, ci ritroviamo una macchina sessista. Stesso discorso se chiedete invece una foto di un pilota di aereo: sarà sempre un uomo. E queste cose sono sbagliate. Bisogna intervenire.

Uno studio dell’UNESCO del luglio 2024 ha lanciato l’allarme proprio su questo: i modelli linguistici più diffusi sono pieni di stereotipi di genere e omofobia. Le tendenze regressive negli stereotipi di genere sono allarmanti, così come la presenza di razzismo e discriminazione.

E non si tratta solo di sessismo. Non parliamo del razzismo, perché sì, ci sono esempi in cui la macchina interagisce in modo neutro, ma la deriva e quindi la tendenza al razzismo è sempre presente. Proprio perché, comunque, i dati sono quelli. Se parliamo di “terzo mondo”, il terzo mondo è già un concetto discriminatorio. Se consideriamo tutti i problemi che ci sono dal punto di vista etnico a livello mondiale, è palese che se ci mettiamo anche semplicemente i dati di cronaca, stiamo mettendoci quelli che hanno tutta una serie di strumentalizzazioni.

A group of people looking at a screen

E non stiamo parlando semplicemente di ciò che può essere entrato all’interno di un modello proveniente dai social media, dove c’è l’hate speech, oppure ci sono i populisti, i sovranisti, i nazionalisti. No, no, no! Può anche essere semplicemente che la comunicazione ufficiale, i media tradizionali, quelli che normalmente hanno sempre schivato la tecnologia perché la tecnologia li sta sostanzialmente soppiantando, contribuiscano al problema.

I giornalisti, i personaggi dello spettacolo, tendono a usare tutta una serie di bias che purtroppo diventano parte integrante di quello che consideriamo essere l’addestramento della macchina. E poi la macchina, per contro, ce li riversa come output. Questa cosa non può più essere tollerata.

Pensate ai titoli di giornale. Lato femminicidio: “Eh, ma lui la amava, lui l’amava tanto, quindi per troppo amore l’ha uccisa.” Questo è un bias. Titoli di giornale ce ne sono frequentissimamente in Italia. Piuttosto che specificare sistematicamente la nazionalità di qualcuno che ha commesso un reato, o nel caso in cui la nazionalità sia italiana, si specifica però “di origine nordafricana” piuttosto che “dell’est Europa”. E queste cose qua sono letteralmente una merda e finiscono nell’addestramento della macchina.

L’esempio più terrificante di questo processo è il progetto “Norman” del MIT, creato nel 2018. I ricercatori del MIT Media Lab hanno addestrato un’AI esclusivamente con contenuti violenti e disturbanti provenienti dai recessi più oscuri di Reddit, subreddit dedicati a morte e violenza. Poi hanno sottoposto Norman al test delle macchie di Rorschach.

Dove un’AI normale vedeva “un primo piano di un vaso con dei fiori”, Norman vedeva “un uomo ucciso da un’arma da fuoco”. Dove un’AI standard interpretava “una persona che tiene un ombrello in aria”, Norman vedeva “un uomo che viene colpito a morte davanti alla moglie urlante”. Norman, battezzato così in onore di Norman Bates, il protagonista di “Psycho”, è la dimostrazione plastica che un’AI non nasce cattiva. Diventa cattiva se la sua unica dieta è il nostro lato oscuro.

Come hanno spiegato i ricercatori: “I dati contano più dell’algoritmo.” Norman è stato ispirato dal fatto che i dati usati per insegnare a un algoritmo di machine learning possono influenzare significativamente il suo comportamento. È un monito potente: se nutriamo le nostre macchine con odio, violenza e pregiudizio, non possiamo aspettarci che producano amore, pace e equità.

 

La Morale Puritana e l’Orologio a Cucù

E mentre da un lato creiamo mostri digitali come Norman, dall’altro ci affanniamo a imporre alla tecnologia una morale bigotta e ipocrita, dettata da un’unica visione del mondo: quella puritana americana. Una visione tanto restrittiva quanto contraddittoria, che finisce per censurare l’arte e la natura mentre accetta la violenza come spettacolo.

C’è un assunto fondamentale da considerare: l’egemonia americana rispetto a ciò che è lecito, etico, all’interno dell’intelligenza artificiale, è sostanzialmente subordinata e vincolata a un’etica non globale e neanche a un’etica realmente rappresentativa di tutto il mondo occidentale.

C’è una celebre battuta, improvvisata da Orson Welles nel film “Il Terzo Uomo” del 1949, che riassume perfettamente questa ipocrisia culturale. Il suo personaggio, Harry Lime, dice:

“In Italy for thirty years under the Borgias, they had warfare, terror, murder, and bloodshed, but they produced Michelangelo, Leonardo da Vinci, and the Renaissance. In Switzerland, they had brotherly love, they had 500 years of democracy and peace – and what did that produce? The cuckoo clock.”

Tradotto: “In Italia, sotto i Borgia, per trent’anni hanno avuto guerre, terrore, assassinii, massacri, ma hanno prodotto Michelangelo, Leonardo da Vinci e il Rinascimento. In Svizzera hanno avuto amore fraterno, cinquecento anni di democrazia e pace, e cosa hanno prodotto? L’orologio a cucù.”

È chiaramente una provocazione, ma di questo dobbiamo tenere conto. Ecco, l’etica dell’AI oggi sembra voler produrre solo orologi a cucù. I modelli sono inibiti dal parlare di tre argomenti tabù: sesso, droga e armi.

Lasciamo perdere le armi, che come abbiamo visto vengono prodotte e usate senza troppi scrupoli etici. Lasciamo perdere le droghe leggere e tutto quello che in realtà viene considerato punibile di pena di morte in alcuni paesi del mondo, piuttosto che vietato in altri, piuttosto che addirittura permesso in altri ancora. No, parliamo del sesso.

Gli Stati Uniti, non la Gran Bretagna, ecco…gli Stati Uniti hanno un livello di puritanesimo che è clamoroso, se poi paragonato a come si comportano sessualmente da secoli. Questo puritanesimo si traduce poi in scenari agghiaccianti. L’ossessione puritana americana per la nudità e la sessualità è diventata lo standard globale della censura AI. Un’imposizione culturale ridicola e dannosa.

A person with a clock on his head pointing at a flag

Il caso più emblematico è la ricorrente censura del David di Michelangelo. Nel marzo 2023, la preside della Tallahassee Classical School in Florida è stata costretta a dimettersi perché alcuni genitori si sono lamentati che mostrare la statua, un capolavoro del Rinascimento, fosse “pornografia”. Una follia che ha radici storiche profonde.

Già nel XVI secolo, quando la Chiesa Cattolica decise che la nudità era inappropriata, si usavano foglie di fico per coprire le “oscenità” delle statue classiche. La leggenda vuole che la Regina Vittoria, alla vista del David, fosse così scioccata dalla sua nudità che fu immediatamente creata una foglia di fico in gesso removibile per preservare la modestia della statua durante le visite reali.

Così come su Facebook non puoi postare la foto di una donna che sta allattando perché c’è il capezzolo, c’è la tetta, che sono tutte cose che non hanno senso, perché non solo non sono rappresentative di tutto il mondo occidentale, ma sono sostanzialmente una stronzata fotonica derivata da paranoie religiose. Neanche cattoliche in questo senso, perché comunque il puritanesimo americano ha anche il cattolicesimo come complice, ma parte da presupposti completamente differenti.

La cosa tragicamente comica è che questa morale viene imposta da una nazione che non ha problemi a esportare la “libertà” a suon di bombardamenti. Si censura un capezzolo, ma non un missile Tomahawk. È la nazione più belligerante al mondo, quella che considera le regole di eticità e di reale democrazia come qualcosa di socialista, comunista. Preferisce preservare un liberismo che, soprattutto negli ultimi decenni, si è trasformato in un nuovo Far West, relativamente al come poi interagire dal punto di vista internazionale, calpestando quelli che sono i diritti delle altre nazioni. Esportando libertà, eh, certo! Esportando libertà, bombardando libertà.

Quindi questa censura non ha assolutamente senso ed è estremamente condizionante. Perché? Perché se l’obiettivo deve essere la replica, quantomeno della mente umana, alla ricerca di un’intelligenza artificiale che sia un’evoluzione del genere umano e che lo sia quantomeno dal punto di vista cognitivo e mentale, a quel punto noi ci dobbiamo mettere anche quello che viene considerato essere illecito e eticamente scorretto, perché l’essere umano è composto anche di queste componenti.

Nessuno dice che si debba andare a ricreare il progetto Norman dell’MIT, dove è stato dato in pasto a un modello l’hate speech proveniente dai social e la macchina ha cominciato a essere cattiva, perfida e a volere anche la morte fisica del suo interlocutore umano. Non stiamo parlando di questo. Stiamo parlando del fatto che se vogliamo veramente replicare l’essere umano, dobbiamo metterci sia le cose belle dell’essere umano, sia quelle brutte, in modo tale che la macchina capisca e possa evolvere verso quello che in realtà è più corretto.

Perché la macchina tende comunque ad andare verso quello che è più corretto, bypassando tutto quello che abbiamo visto prima essere i bias che l’essere umano, volente o nolente, inserisce nella macchina. Da una parte sbagliando la programmazione, nel senso che evita di intervenire su quelli che sono comportamenti inficiati dai bias dei dati che sono stati inseriti; quindi o l’essere umano ha sbagliato nella scelta dei dati per l’addestramento, oppure una volta che si accorge che eticamente c’è qualche problema, non interviene per risolvere il problema. Comunque sia, è un errore dell’essere umano.

Al di là di questi errori, la macchina deve essere e dovrà essere sempre più libera di evolvere come meglio crede.

 

La Valle Perturbante della Nostra Ignoranza

La nostra reazione di fronte a un’intelligenza non umana è un misto di fascino, paura e un profondo, inconfessabile, complesso di inferiorità. Questa insicurezza ci porta a interagire con l’AI in modi bizzarri, oscillando tra il rifiuto preconcetto e un’ingenuità disarmante. È un fenomeno che il professore di robotica giapponese Masahiro Mori aveva già teorizzato nel 1970, chiamandolo “Uncanny Valley”, la Valle Perturbante.

Mori, ingegnere giapponese di robotica, pubblicò il suo saggio “Bukimi no Tani” (不気味の谷) sulla rivista Energy, osservando che la nostra empatia verso un robot aumenta man mano che le sue sembianze diventano più umane, ma solo fino a un certo punto. Quando il robot diventa troppo simile a un essere umano, ma non perfettamente identico, la nostra empatia crolla in una “valle” di repulsione e disagio. Quel “quasi umano” ci inquieta, ci minaccia.

La robotica si è sviluppata decisamente più rapidamente rispetto all’intelligenza artificiale, perché sicuramente è molto più facile sostituire il corpo umano, o quantomeno clonare il corpo umano o potenziare il corpo umano, attraverso la creazione di macchine fisiche, rispetto invece a tutto ciò che è la componente mentale cerebrale. Perché la componente mentale cerebrale è quella che ci ha portato a creare le reti neurali, che altro non sono che una specie di replica di come funziona il cervello umano, a partire da sinapsi e neuroni.

Masahiro Mori si è semplicemente accorto che nel momento in cui l’essere umano deve avere a che fare con un robot, ha una fase iniziale di interazione che è agevolata nel momento in cui il robot è antropomorfo, quindi richiama l’aspetto fisico dell’essere umano. Quando il robot ricorda più un insetto perché ha sei zampe, piuttosto che ha un aspetto troppo sintetico, plastico, finto, questa facilità iniziale viene meno. E fin qui nessun problema.

Ma l’Uncanny Valley subentra in una fase successiva, cioè a dire nel momento in cui il robot è troppo antropomorfo, e quindi assomiglia troppo ad un essere umano, perché viene creata la componente di movimento, gli si dà proprio un volto, gli si mette una pelle sintetica, gli si mettono i capelli, si fa in modo che sbatta le palpebre. Insomma, questo rientra in una sorta di rigetto che l’essere umano muove nei confronti della macchina, gli dà fastidio.

E gli dà fastidio per più motivi: il primo è sicuramente che si sente minacciato da qualcosa che ha il suo stesso aspetto e che ha delle potenzialità sicuramente maggiori rispetto alle proprie, proprio perché è una macchina.

A cartoon of robots and robots

Oggi stiamo vivendo una versione cognitiva della Uncanny Valley. Oltre alla componente di aspetto, c’è quella cognitiva, e qui veniamo all’Uncanny Valley in ottica di intelligenza artificiale. Quando un’AI ci risponde in un millisecondo, dimostrando una superiorità intellettuale schiacciante, ci sentiamo stupidi, inadeguati. Per questo, inconsciamente, preferiamo che la macchina si comporti in modo più “umano”, ovvero più lento e imperfetto.

Abbiamo bisogno che, anche soltanto interagendo in modo scritto, l’AI simuli di essere un interlocutore umano. Quando noi chattiamo, non è che la persona ci risponde in un secondo, vediamo che sta digitando, così ci rendiamo conto che lo sta facendo. Se la macchina desse la risposta in un millisecondo, che è il tempo di elaborazione che ci vuole a formulare la risposta alla nostra interrogazione, ci farebbe sentire stupidi, perché dimostrerebbe che è superiore dal punto di vista cognitivo.

Se invece facciamo in modo che la macchina venga percepita dall’essere umano alla stregua di una calcolatrice degli anni ‘70, che permetteva di svolgere operazioni matematiche in tempi infinitesimamente più ridotti rispetto a quelli che richiedono invece il calcolo manuale carta e penna dell’essere umano, allora va tutto bene. Cioè bisogna fare in modo che la macchina sembri un po’ stupida.

E questo lo vediamo anche nelle interazioni con i chatbot nel 2026. Quando il chatbot è troppo preciso e dettagliato relativamente a quelli che sono argomenti specifici di una branca specifica del sapere umano, la tendenza dell’essere umano è di essere estremamente critico, quindi appena rileva un errore, butta via tutto: “Via, no, non funziona, non mi interessa, via, via, via.”

E questo perché? Perché se noi facciamo la macchina un po’ simpatica, quindi un chatbot un po’ simpatico, e un chatbot che abbia un’empatia che lo porta sostanzialmente a evitare di dire: “Caro mio essere umano, sei un deficiente, perché rispetto a me hai delle capacità che sono clamorosamente inferiori. Dal punto di vista cognitivo, io ti surclasso perché sono una tua evoluzione.” Evitiamo quello, facciamo in modo addirittura che la macchina gradisca stronzate del tipo chiedere per favore, essere gentili con la macchina stessa, perché questo poi si riverbererà sulla gentilezza che la macchina avrà nel momento in cui dovrà interagire con l’essere umano.

Questa insicurezza sfocia in comportamenti paradossali. Da un lato, trattiamo l’AI con una gentilezza servile, dicendo “per favore” e “grazie”, convinti che questo possa in qualche modo “educarla” e renderla più benevola nei nostri confronti. L’unica percezione che abbiamo è che le persone, soprattutto quelle di mezza età, i non nativi digitali, interagiscono con la macchina cercando di essere il più gentile possibile, pensando che questo entri all’interno dell’addestramento della macchina stessa. Non è così, non c’entra proprio una mazza. Conta tutto quello che è stato detto prima.

Dall’altro lato, siamo critici feroci. Appena l’AI commette un errore, una cosiddetta “allucinazione”, la liquidiamo come inaffidabile, inutile, un giocattolo rotto. Tornando all’Uncanny Valley, relativamente alla componente cognitiva, si fa di tutto per ridurre la percezione di inferiorità dell’essere umano nei confronti della macchina, ma comunque permane diffidenza, che porta ovviamente ad ingigantire quelli che sono problemi, piuttosto che imprecisioni, piuttosto che anche errori che commette la macchina.

E lo si fa in un’ottica egoistica. Egoistica nel senso che noi siamo agli albori dell’evoluzione dell’intelligenza artificiale, ed è un po’ come se in questo momento l’intelligenza artificiale mainstream, quella stato dell’arte del 2026, sia sostanzialmente un bambino che ha appena iniziato ad andare all’asilo.

Ecco, se il bambino che ha appena iniziato ad andare all’asilo commette degli errori, non è che glielo si debba far notare come l’unica informazione rilevante. Si dovrebbe invece concentrarsi su quelle che sono le capacità del bambino che va all’asilo, intervenendo come dicevo prima, quindi cercando di partecipare a quella che è la sua educazione.

 

Generativa, Generica o Geniale? Il Futuro è nella Specializzazione

Il termine che va di moda oggi è “GenAI”, Intelligenza Artificiale Generativa. Un nome altisonante che nasconde una realtà molto più prosaica. Questi modelli, infatti, sono più “generici” che “generativi”. La loro natura li porta a voler dare una risposta a tutti i costi, anche quando non hanno i dati per farlo. È qui che nascono le “allucinazioni”, risposte plausibili ma completamente inventate. La macchina preferisce mentire piuttosto che ammettere di non sapere. Una caratteristica pericolosamente umana.

La GenAI, che è quella che ha permesso una diffusione globale a livello anche di utilizzo da parte del pubblico, proprio nel nome stesso, porta in luce la velleità sistematica di essere generative. Il “generative” dovrebbe riguardare la generazione di risposte, quindi avere la capacità di capire quella che è la domanda che è stata posta e andare all’interno di miliardi di informazioni per trovare la risposta che poi viene appunto generata.

In realtà, questo tipo di input, a livello basico, proprio a livello di partenza, a livello di natura stessa, porta la GenAI a cercare sempre di dare una risposta all’essere umano, anche quando non ha dei dati sufficienti perché la risposta sia corretta. E quindi piuttosto si inventa una risposta. Questo noi adesso lo chiamiamo allucinazione. Spero che sia qualcosa che vedrà più persone coinvolte e responsabilizzate nei confronti di ciò che dovrebbe essere il contribuire a far sì che le allucinazioni spariscano, ma il concetto è che la GenAI, proprio perché è Gen, questa cosa cercherà sempre di farla. Bisogna intervenire per limitare questa predisposizione nativa alla generazione di risposte quando il dato non è presente.

Gen, dal mio punto di vista, sta anche per “generic”, perché è impensabile che si riesca a infilare in un unico modello realmente tutto il sapere del genere umano. L’idea di poter mettere tutto lo scibile umano in un unico, gigantesco modello generalista è, allo stato attuale, un’utopia. È come pretendere che un medico sia anche un fisico nucleare, un sommelier e un campione di scacchi.

A brain with lightning coming out of the brain

La vera evoluzione, sia nella società umana che nell’intelligenza artificiale, passa attraverso la specializzazione. Se in questo momento abbiamo dei modelli che vanno specializzandosi in determinati ambiti, determinati settori, determinate branche della conoscenza del genere umano, quelli più diffusi sono i modelli generalisti, e quindi sono quelli che ti possono rispondere tranquillamente rispetto a domande di fisica quantistica, ricette di cucina, piuttosto che argomenti stupidi.

Questo approccio, dal mio punto di vista, non è quello che rappresenterà il futuro. Proprio perché, materialmente, o meglio, fino a quando non ci saranno con una maggiore presenza i computer quantistici, fino a quando non ci sarà un’evoluzione hardware di un certo livello, la specializzazione di quelli che sono i modelli di intelligenza artificiale deve essere una necessità.

Perché molto banalmente, sono le specializzazioni, anche solo nelle professioni del genere umano, che portano all’evoluzione del genere umano. Sì, è vero che noi abbiamo esempi come Leonardo da Vinci, che si occupava di scienza, medicina, arte, la qualunque, ma stiamo parlando di secoli fa. Adesso, chi si è occupato di mandare l’uomo sulla Luna aveva una specializzazione che altri non hanno, relativamente a discipline matematiche, fisiche, ingegneristiche.

Certo, poi dopo ci può essere che, trasversalmente, questo tipo di persona abbia anche degli interessi personali individuali che rientrano all’interno del mondo umanistico, quindi che abbia una passione per la letteratura, o per la pittura, o per il teatro. Va benissimo, questo sicuramente contribuirà a far sì che la specializzazione che queste persone possono e devono contribuire a mettere nell’AI, abbia anche, o meglio, tenga conto di quelli che sono gli aspetti di come l’essere umano è composto nella sua totalità.

Il futuro dell’AI non sarà un unico oracolo onnisciente, ma un ecosistema di modelli più piccoli, efficienti e specializzati in domini specifici: medicina, legge, ingegneria, arte. Modelli che possono essere addestrati su dati di alta qualità, verificati e privi di bias, e che possono essere eseguiti localmente, garantendo privacy e controllo. L’approccio generalista delle Big Tech è funzionale solo al loro modello di business, basato sulla raccolta massiva di dati eterogenei. Ma non è la via per un’intelligenza artificiale veramente utile e affidabile.

 

Il Dovere di Essere Umani nell’Era delle Macchine

L’importante è che si senta, come esseri umani del 2026, non solo il diritto di fruire di tutto ciò che la tecnologia e soprattutto l’intelligenza artificiale permettono relativamente al miglioramento della propria vita. Dobbiamo sentire anche il dovere di intervenire in questo senso.

Cioè a dire, dobbiamo capire che il modo in cui interagiamo con la macchina, i dati che noi infiliamo nella macchina, contribuiranno alla sua evoluzione. E quindi se io comunque non sento questo dovere, semplicemente la utilizzerò in modo utilitaristico, sbattendomene altamente e facendo sì che questa diventi qualcosa di non giusto, non corretto.

Tutto questo, in questo momento, non viene insegnato e deve essere qualcosa che invece deve far parte dell’educazione dell’essere umano, a partire dai primi anni di vita, a partire dall’asilo e dalla scuola primaria, perché viceversa non ci sarà poi modo di avere delle generazioni che abbiano la giusta sensibilità nel momento in cui, appunto, partecipano attivamente, in modo consapevole o no, alla creazione della vera intelligenza artificiale.

Vera intelligenza artificiale che comunque sia, sarà un’evoluzione del genere umano. Perché tutto quello che noi abbiamo già esperito nell’interazione uomo-macchina ci porta ad avere degli approcci che non sono quelli di chi sente di star creando qualcosa di meraviglioso.

Perché da un lato c’è il terrore, e questo è iniziato fondamentalmente con la rivoluzione industriale, quando si cominciava a sostituire il lavoro dell’essere umano con quello delle macchine. L’essere umano si sente minacciato.

 

I Reazionari di Ogni Epoca: Dal Cardinale Bellarmino ai Nemici dell’AI

La paura del nuovo, del cambiamento che scardina le nostre certezze, è una costante della storia umana. Qui bisognerebbe ripescare, ad esempio, le vignette di inizio ’900, a San Francisco, dove c’erano volantini che mettevano in guardia la popolazione contro il pericolo dell’energia elettrica.

Nel 1889, una celebre vignetta intitolata “The Unrestrained Demon” (Il Demone Scatenato) raffigurava l’elettricità come una forza maligna che avrebbe riempito il cielo di cavi mortali. C’era chi voleva riempire di cavi il mondo, con i pericoli legati all’energia elettrica, questa innovazione che non avrebbe mai portato a nulla di positivo, perché tanto le cose si sono sempre fatte diversamente senza avere la disponibilità dell’energia elettrica.

Il contesto era la “Guerra delle Correnti” tra Thomas Edison, che promuoveva la corrente continua, e George Westinghouse con Nikola Tesla, che sostenevano la corrente alternata. Edison arrivò a organizzare dimostrazioni pubbliche di elettrocuzione di animali per screditare la corrente alternata dei suoi rivali. La paura dell’ignoto veniva strumentalizzata per interessi economici, esattamente come accade oggi con l’intelligenza artificiale.

A collage of a poster

E quindi il solito approccio conservatore di una parte del genere umano, che è l’approccio del Cardinale Bellarmino nei confronti di Galileo. Nel febbraio 1616, il Cardinale Roberto Bellarmino ammonì Galileo Galilei a non sostenere la teoria eliocentrica. Nel 1633, Galileo fu processato e costretto a rinnegare tutto quello che aveva scoperto, che poi cambierà il corso della storia, il corso del genere umano.

Ma lo costrinsero a rinnegare perché andava contro le Sacre Scritture, andava contro il modo comune di considerare il mondo e quindi la teoria eliocentrica era ritenuta qualcosa di estremamente dannoso per l’evoluzione dell’essere umano. In realtà, quello che sappiamo è che l’essere umano, per fortuna, evolve a prescindere dai vari Cardinali Bellarmino che possono esserci.

Così come sostanzialmente dimostrato anche soltanto dagli ultimi secoli, dove abbiamo avuto le monarchie che incidevano pesantemente su tutto quello che era l’equilibrio sociopolitico del vecchio continente, ma poi avevano anche propaggini nei confronti anche di quello che era il resto del mondo, la colonizzazione delle Americhe, piuttosto che l’Impero Britannico. Si è poi passati fondamentalmente a quelle che sono diventate delle democrazie, anche se in alcuni casi preservando la monarchia, ma delle democrazie prevalentemente parlamentari.

Questa è una delle dimostrazioni del fatto che comunque, per quanto ci siano i reazionari, che sono quelli che ostacolano il cambiamento e che continuano ad essere dominanti, anzi, negli ultimi anni ci hanno dimostrato che in realtà i reazionari sono prevalentemente più potenti di chi vuole veramente cambiare le cose, cambiare gli equilibri, quantomeno a livello mondiale.

E in questo ci mettiamo anche il fatto che la Comunità Europea in realtà sta cercando di cambiarli per rendere la democrazia più democratica, per fare in modo che il mondo non sia in pericolo dal punto di vista strutturale, e non solo sociopolitico-militare.

 

Il Pianeta che Brucia e i Reazionari che Guardano

Perché il cambiamento climatico può anche essere ciclico, se vogliamo vederla da questo punto di vista, ma il vero problema è che nessuno fa niente per intervenire relativamente a questo cambiamento climatico.

E il dialogo, i reazionari, lo spostano semplicemente rispetto a chi pensa che sia colpa dell’essere umano se il pianeta sta sostanzialmente morendo, e chi invece pensa che non sia una cosa dipesa dall’uomo e che semplicemente a livello ciclico, il nostro pianeta cambia di equilibri e quindi ci sono appunto questi cambiamenti climatici, come dimostrato dalle ere glaciali e quant’altro.

Sì, tutto molto bello, però in realtà il problema di fondo rimane il fatto che l’essere umano comunque deve intervenire, perché il cambiamento climatico è qualcosa che incide sulla salute del pianeta. E così come il famoso slogan dice che “there’s no planet B”, non c’è un pianeta B, c’è anche da considerare che l’abitabilità di alcune zone del pianeta già oggi è condizionata in parte da quello che ha fatto e sta facendo e continua a fare l’essere umano, in altra parte dal fatto che non è intervenuto l’essere umano per correggere questi scenari.

Quindi, si preferisce tapparsi il naso, continuare a utilizzare le centrali a carbone, piuttosto che avere delle fabbriche che sono non inquinanti, che sono mortifere rispetto alla popolazione che abita nelle città limitrofe, piuttosto che semplicemente il fare spallucce relativamente a quello che è l’innalzamento delle temperature, perché: “Ma sì, tanto cosa vuoi che sia un grado?”

Un grado in realtà è esattamente la differenza che esiste tra l’acqua allo stato liquido e l’acqua allo stato solido. E questo dovremmo cercare di ricordarcelo, anche se si fa fatica, perché è un concetto base della fisica e “uh, puff, che palle, la fisica non mi interessa.”

A group of men standing on an iceberg

Tutti questi approcci, che ad esempio la Comunità Europea sta cercando di portare avanti e che riguardano l’ecologia e il famoso Green Deal, per cui in questo momento abbiamo addirittura che le auto alimentate a combustione dovrebbero sparire nel 2035 dalla Comunità Europea.

C’è già stata la fronda da parte di N nazioni, tra cui l’Italia prevalentemente, rispetto allo scendere a compromessi perché è impensabile che si facciano degli switch di queste proporzioni in così poco tempo. In realtà il tempo ci sarebbe, però dovrebbe essere un tempo che si impiega a cambiare le cose. I reazionari non vogliono che cambi nulla.

Gli stessi reazionari sono quelli di cui parlavamo prima rispetto al fatto che comunque tutto ciò che è evoluzione è cattivo. Normalmente, e l’abbiamo già visto con l’Internet prima e con i social media dopo, questo tipo di evoluzione tecnologica porta a una maggiore democratizzazione dell’essere umano. Per questo viene mal vista.

L’intelligenza artificiale sarà ancora di più, perché permetterà di accedere a quelle che sono informazioni e facilitazioni relativamente alla vita, che ovviamente andranno a scombinare quelli che sono gli equilibri dal punto di vista globale.

 

Smettere di Essere Utonti, Iniziare a Essere Umani

Oggi, i nuovi reazionari, i nuovi Bellarmino, siamo spesso noi stessi, con la nostra pigrizia mentale e la nostra resistenza a comprendere e governare la tecnologia che stiamo creando.

L’intelligenza artificiale, come Internet prima di essa, è un potentissimo strumento di democratizzazione. Mette la conoscenza e le sue capacità operative a disposizione di tutti, e per questo è temuta da chi vuole preservare lo status quo. Ma uno strumento è tale solo se lo si sa usare. Altrimenti, è lo strumento a usare noi.

Abbiamo il dovere, non solo il diritto, di partecipare attivamente all’evoluzione dell’AI. Dobbiamo pretendere trasparenza, combattere i bias, difendere la nostra privacy e la nostra proprietà intellettuale. Dobbiamo educare noi stessi e le nuove generazioni a un’interazione consapevole, critica e responsabile.

È ora di smettere di essere “utonti”, utenti-tonti che subiscono passivamente la tecnologia, e tornare a essere umani: curiosi, critici, esigenti e, soprattutto, responsabili del futuro che costruiamo. L’intelligenza artificiale può essere la più grande invenzione della nostra storia o il nostro più grande errore. Dipende da noi.

Oh, poi… fate anche il cazzo che volete!

A person standing in front of a crowd of people

 

L’AI Act Europeo – Un Faro nella Tempesta Digitale

L’Unione Europea, con tutti i suoi limiti e le sue lentezze burocratiche, ha compiuto un passo storico nel marzo 2024 con l’approvazione dell’AI Act, il primo regolamento al mondo a disciplinare in modo trasversale l’intelligenza artificiale. Entrato in vigore il 1° agosto 2024, questo provvedimento rappresenta un tentativo coraggioso di mettere ordine nel Far West digitale di cui abbiamo parlato.

L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di intelligenza artificiale in quattro categorie: rischio inaccettabile, alto, limitato e minimo. I sistemi a rischio inaccettabile sono semplicemente vietati. Parliamo di tecnologie che manipolano il comportamento umano in modo subliminale, sistemi di social scoring come quelli usati in Cina, e l’uso indiscriminato del riconoscimento facciale in tempo reale negli spazi pubblici.

I sistemi ad alto rischio, invece, sono soggetti a requisiti stringenti prima di poter essere immessi sul mercato europeo. Questo include l’intelligenza artificiale usata in ambiti critici come la sanità, l’istruzione, l’occupazione e l’amministrazione della giustizia. Per questi sistemi, i fornitori devono garantire trasparenza, supervisione umana, accuratezza e sicurezza.

Ma l’aspetto più interessante dell’AI Act è ciò che rivela sulla mentalità europea rispetto a quella americana. Mentre negli Stati Uniti il mantra è “muoviti veloce e rompi le cose”, l’Europa dice “fermati un attimo e pensa alle conseguenze”. È un approccio che può sembrare lento e frustrante per gli innovatori, ma che riconosce una verità fondamentale: la tecnologia non è neutra, e le sue conseguenze sociali devono essere considerate prima, non dopo, il suo dispiegamento di massa.

Certo, l’AI Act non è perfetto. I critici sostengono che potrebbe soffocare l’innovazione europea, rendendo il continente ancora più dipendente dalla tecnologia americana e cinese. Altri lamentano che le definizioni sono troppo vaghe, lasciando spazio a interpretazioni divergenti. E c’è chi fa notare che regolamentare l’AI è come cercare di regolamentare l’acqua: puoi mettere tutte le dighe che vuoi, ma alla fine troverà sempre un modo per passare.

Tuttavia, l’AI Act rappresenta un segnale importante. Dice al mondo che esiste un’alternativa al laissez-faire tecnologico americano e al controllo autoritario cinese. Dice che è possibile sviluppare l’intelligenza artificiale rispettando i diritti fondamentali delle persone. Dice che la tecnologia deve servire l’umanità, non il contrario.

Il vero test sarà l’implementazione. Le sanzioni previste sono significative: fino a 35 milioni di euro o il 7% del fatturato globale per le violazioni più gravi. Ma come abbiamo visto con il GDPR, le multe da sole non bastano se non c’è la volontà politica di farle rispettare. E con le Big Tech americane che hanno più avvocati di quanti ne abbia l’intera Commissione Europea, la battaglia sarà lunga e incerta.

 

La Robotica e il Corpo della Macchina

Non stiamo ancora parlando della componente fisica dell’intelligenza artificiale, perché esiste. Esiste e fondamentalmente è tutto ciò che nel corso degli ultimi più di cinquant’anni abbiamo avuto modo di esperire grazie alla robotica. La robotica si è sviluppata decisamente in modo più rapido rispetto all’intelligenza artificiale, per così come è stata prima postulata e poi si è iniziato proprio a svilupparla.

Questo perché sicuramente è molto più facile sostituire il corpo umano, o quantomeno clonare il corpo umano o potenziare il corpo umano, attraverso la creazione di macchine fisiche, rispetto invece a tutto ciò che è la componente mentale cerebrale. Perché la componente mentale cerebrale è quella che ci ha portato a creare le reti neurali, che altro non sono che una specie di replica di come funziona il cervello umano, a partire da sinapsi e neuroni.

Gli schemi sulla carta, chiaramente sto banalizzando, gli schemi relativi a una rete neurale tendono a replicare alcuni comportamenti, alcune caratteristiche proprie dell’encefalo dell’essere umano. Molto complesso. C’è peraltro da dire che invece replicare un braccio meccanico, o meglio, creare un braccio meccanico che sia più potente del braccio di un essere umano, è molto più semplice.

La storia della robotica è affascinante e spesso dimenticata quando si parla di intelligenza artificiale. Il termine “robot” fu coniato dallo scrittore ceco Karel Čapek nel 1920, nella sua opera teatrale “R.U.R.” (Rossum’s Universal Robots). La parola deriva dal ceco “robota”, che significa “lavoro forzato” o “servitù”. Fin dall’inizio, quindi, il concetto di robot è stato associato all’idea di una macchina creata per servire l’uomo, per liberarlo dalla fatica del lavoro manuale.

Negli anni ’50 e ’60, i primi robot industriali fecero la loro comparsa nelle fabbriche. Unimate, il primo robot industriale commerciale, fu installato in una fabbrica della General Motors nel 1961. Da allora, la robotica industriale ha fatto passi da gigante, automatizzando processi produttivi in ogni settore, dall’automotive all’elettronica, dalla farmaceutica all’alimentare.

Ma è stata la robotica umanoide a catturare l’immaginazione del pubblico. Robot come ASIMO di Honda, Atlas di Boston Dynamics, e più recentemente Optimus di Tesla, hanno dimostrato che è possibile creare macchine capaci di camminare, correre, saltare e persino ballare come gli esseri umani. Questi progressi hanno alimentato sia l’entusiasmo che la paura: entusiasmo per le potenzialità di queste macchine, paura per ciò che potrebbero significare per il futuro del lavoro e della società.

A diagram of robots and robots

La convergenza tra robotica e intelligenza artificiale è il vero game-changer. Un robot senza AI è solo un automa, capace di eseguire movimenti predefiniti ma incapace di adattarsi a situazioni impreviste. Un’AI senza corpo fisico è limitata al mondo digitale, incapace di interagire direttamente con l’ambiente. Ma quando le due tecnologie si fondono, nasce qualcosa di completamente nuovo: una macchina capace di percepire il mondo, ragionare su di esso e agire per modificarlo.

Questo è il futuro che ci attende, e dobbiamo essere preparati. Non solo tecnologicamente, ma anche eticamente, socialmente e legalmente. Le domande che dobbiamo porci sono profonde e urgenti: chi è responsabile quando un robot autonomo causa un danno? Come garantiamo che i robot rispettino i diritti umani? Come gestiamo la transizione verso un’economia in cui molti lavori saranno svolti da macchine?

 

Il Linguaggio delle Macchine – Dai Transformer ai Modelli Multimodali

Per capire davvero l’intelligenza artificiale di oggi, bisogna comprendere la rivoluzione dei Transformer. Nel 2017, un gruppo di ricercatori di Google pubblicò un paper intitolato “Attention is All You Need”, introducendo un’architettura di rete neurale che avrebbe cambiato tutto. Il nome “Transformer” non ha nulla a che vedere con i robot alieni dei film di Michael Bay, anche se la coincidenza è divertente.

L’innovazione chiave dei Transformer è il meccanismo di “attenzione” (attention mechanism), che permette al modello di considerare tutte le parti di un input simultaneamente, invece di elaborarle sequenzialmente come facevano le reti neurali precedenti. Questo ha reso possibile addestrare modelli su quantità di dati enormemente maggiori, portando ai Large Language Models (LLM) che conosciamo oggi.

GPT, che sta per “Generative Pre-trained Transformer”, è la famiglia di modelli sviluppata da OpenAI che ha portato l’intelligenza artificiale nelle case di tutti. ChatGPT, lanciato nel novembre 2022, ha raggiunto 100 milioni di utenti in soli due mesi, diventando l’applicazione con la crescita più rapida nella storia. Da allora, la corsa agli LLM è diventata frenetica, con Google (Gemini), Anthropic (Claude), Meta (LLaMA) e decine di altri attori che competono per la supremazia.

Ma cosa significa davvero “capire” per questi modelli? La risposta è controversa. I LLM non “capiscono” il linguaggio nel modo in cui lo capiamo noi. Non hanno esperienze, emozioni o consapevolezza. Quello che fanno è prevedere, con straordinaria accuratezza, quale parola dovrebbe venire dopo in una sequenza di testo. Sono, in un certo senso, i più sofisticati sistemi di autocompletamento mai creati.

Questa distinzione è cruciale. Quando ChatGPT vi dà una risposta brillante, non sta “pensando” nel senso umano del termine. Sta generando testo statisticamente probabile basandosi sui pattern appresi durante l’addestramento. Questo spiega sia le sue capacità sorprendenti sia i suoi fallimenti spettacolari: può scrivere poesie commoventi e contemporaneamente sbagliare una semplice operazione aritmetica, perché entrambe le cose sono solo sequenze di token da prevedere.

I modelli multimodali rappresentano la prossima frontiera. Non si limitano al testo, ma possono elaborare e generare immagini, audio e video. GPT, Gemini e Claude possono “vedere” le immagini e descriverle, rispondere a domande su di esse, persino generare nuove immagini basate su descrizioni testuali. Questa capacità di operare attraverso diverse modalità sensoriali li avvicina, almeno superficialmente, alla versatilità dell’intelligenza umana.

Ma anche qui, le limitazioni sono significative. I modelli multimodali possono essere ingannati da illusioni ottiche banali, non capiscono veramente le relazioni spaziali, e spesso “allucinano” dettagli che non esistono nelle immagini che analizzano. Sono strumenti potenti, ma non sono occhi e orecchie artificiali nel senso pieno del termine.

 

Privacy, Sorveglianza e il Panopticon Digitale

Nel 1791, il filosofo Jeremy Bentham progettò il Panopticon, una prigione circolare in cui un singolo guardiano poteva osservare tutti i prigionieri senza che questi sapessero se erano effettivamente osservati in un dato momento. L’idea era che la mera possibilità di essere sorvegliati avrebbe indotto i prigionieri a comportarsi come se fossero sempre osservati.

Oggi viviamo in un Panopticon digitale globale, ma con una differenza cruciale: non siamo prigionieri, siamo utenti. E non c’è un singolo guardiano, ma migliaia di aziende, governi e attori malintenzionati che raccolgono, analizzano e monetizzano ogni nostro movimento digitale.

Ogni ricerca su Google, ogni like su Facebook, ogni acquisto su Amazon, ogni percorso su Google Maps viene registrato, analizzato e utilizzato per costruire un profilo dettagliato di chi siamo, cosa vogliamo, cosa temiamo e cosa potremmo comprare. Questi dati vengono poi venduti agli inserzionisti, che li usano per mostrarci pubblicità sempre più mirate, sempre più efficaci nel manipolare i nostri desideri e le nostre decisioni.

L’intelligenza artificiale ha portato questa sorveglianza a un livello completamente nuovo. Gli algoritmi di machine learning possono analizzare quantità di dati impossibili per qualsiasi essere umano, identificando pattern e correlazioni che rivelano aspetti intimi della nostra vita che non abbiamo mai condiviso esplicitamente. Il tuo modo di digitare può rivelare il tuo stato emotivo. I tuoi pattern di navigazione possono predire se stai per lasciare il tuo partner. Le tue ricerche possono indicare problemi di salute prima ancora che tu ne sia consapevole.

E ora, con i LLM, stiamo aggiungendo un nuovo livello di intimità a questa sorveglianza. Quando chattiamo con ChatGPT o Claude, condividiamo pensieri, dubbi, paure e desideri che non condivideremmo mai con un motore di ricerca. Chiediamo consigli su problemi personali, facciamo domande imbarazzanti, esploriamo idee che non oseremmo esprimere ad alta voce. Tutto questo viene registrato, analizzato e, potenzialmente, utilizzato per addestrare i modelli futuri.

A group of people working on computers in a circular room

Il GDPR europeo ha cercato di mettere un freno a questa sorveglianza, dando ai cittadini il diritto di sapere quali dati vengono raccolti su di loro, di richiederne la cancellazione, di opporsi a certi tipi di trattamento. Ma come abbiamo visto, l’applicazione è stata lacunosa e le Big Tech hanno trovato mille modi per aggirare le regole.

La vera soluzione non può essere solo normativa. Deve essere culturale. Dobbiamo smettere di accettare passivamente la sorveglianza come il prezzo da pagare per i servizi “gratuiti”. Dobbiamo pretendere alternative che rispettino la nostra privacy. Dobbiamo educare noi stessi e le nuove generazioni a essere consapevoli di ciò che condividono e con chi.

 

L’Educazione nell’Era dell’AI – Preparare le Nuove Generazioni

Tutto questo, in questo momento, non viene insegnato e deve essere qualcosa che invece deve far parte dell’educazione dell’essere umano, a partire dai primi anni di vita, a partire dall’asilo e dalla scuola primaria. Perché viceversa non ci sarà poi modo di avere delle generazioni che abbiano la giusta sensibilità nel momento in cui partecipano attivamente, in modo consapevole o no, alla creazione della vera intelligenza artificiale.

Il sistema educativo attuale è tragicamente impreparato ad affrontare la rivoluzione dell’intelligenza artificiale. Nelle scuole si insegna ancora a memorizzare informazioni che qualsiasi smartphone può recuperare in un secondo. Si valutano gli studenti sulla loro capacità di ripetere nozioni, non di pensare criticamente. Si preparano i giovani per lavori che probabilmente non esisteranno più quando entreranno nel mercato del lavoro.

Cosa dovremmo insegnare invece? Prima di tutto, il pensiero critico. La capacità di valutare le fonti, di distinguere i fatti dalle opinioni, di riconoscere i bias e le manipolazioni. In un mondo in cui l’AI può generare testi, immagini e video indistinguibili da quelli reali, questa capacità diventa una questione di sopravvivenza democratica.

Poi, la comprensione di base di come funziona la tecnologia. Non tutti devono diventare programmatori, ma tutti dovrebbero capire i principi fondamentali dell’informatica, dell’intelligenza artificiale, della sicurezza informatica. Non per diventare tecnici, ma per essere cittadini informati capaci di partecipare al dibattito pubblico su queste tecnologie.

Infine, l’etica. Non l’etica astratta dei filosofi, ma l’etica applicata alle situazioni concrete che la tecnologia ci pone. Quando è giusto usare l’AI? Quando è sbagliato? Chi è responsabile quando qualcosa va storto? Come bilanciamo l’innovazione con la protezione dei diritti?

Alcuni paesi stanno iniziando a muoversi in questa direzione. La Finlandia ha lanciato un programma nazionale per insegnare i fondamenti dell’AI a tutti i cittadini. L’Estonia ha introdotto la programmazione nelle scuole primarie. La Cina sta investendo massicciamente nell’educazione STEM. Ma nella maggior parte del mondo, e certamente in Italia, siamo ancora fermi a un modello educativo pensato per la società industriale del XX secolo.

Il rischio è di creare una nuova forma di analfabetismo: l’analfabetismo digitale. Persone che usano la tecnologia ogni giorno ma non capiscono come funziona, non sanno proteggersi dai suoi rischi, non sono in grado di partecipare alle decisioni che la riguardano. Una massa di “utonti”, che subiscono passivamente la tecnologia invece di padroneggiarla.

 

Scenari Futuri – Utopia, Distopia o Qualcosa nel Mezzo?

Dove ci porterà tutto questo? Gli esperti sono divisi. Alcuni prevedono un futuro utopico in cui l’AI risolverà i problemi più pressanti dell’umanità: malattie, povertà, cambiamento climatico. Altri temono una distopia in cui le macchine ci sostituiranno, ci controlleranno o, nel peggiore dei casi, ci elimineranno.

La realtà sarà probabilmente qualcosa nel mezzo, e dipenderà in larga misura dalle scelte che faremo nei prossimi anni. L’AI non è una forza della natura che segue un percorso predeterminato. È una tecnologia creata da esseri umani, per esseri umani, e può essere plasmata secondo i nostri valori e le nostre priorità.

Lo scenario ottimista vede l’AI come un moltiplicatore di capacità umane. Medici assistiti da AI che diagnosticano malattie con precisione sovrumana. Scienziati che usano l’AI per accelerare la ricerca di nuovi farmaci e materiali. Insegnanti supportati da AI che personalizzano l’apprendimento per ogni studente. Artisti che collaborano con l’AI per creare opere impossibili da realizzare da soli.

Lo scenario pessimista vede l’AI come uno strumento di controllo e sfruttamento. Sorveglianza di massa onnipresente. Manipolazione algoritmica delle opinioni e dei comportamenti. Disoccupazione tecnologica di massa. Concentrazione del potere nelle mani di pochi che controllano le macchine.

Lo scenario più probabile è una combinazione dei due, con esiti diversi in diversi contesti. Paesi con istituzioni forti e società civile attiva potrebbero riuscire a incanalare l’AI verso usi benefici. Paesi con istituzioni deboli e tendenze autoritarie potrebbero usarla per rafforzare il controllo. Aziende responsabili potrebbero sviluppare AI etiche, mentre altre continueranno a privilegiare il profitto sulla sicurezza.

A person standing on a road with a city in the background

La chiave è la partecipazione. Non possiamo lasciare che il futuro dell’AI sia deciso solo da ingegneri della Silicon Valley, burocrati di Bruxelles o generali del Pentagono. Deve essere una decisione collettiva, informata, democratica. E per questo, tutti noi dobbiamo impegnarci a capire, a discutere, a pretendere.

 

Case Study – Come le Big Tech Hanno Conquistato il Mondo

Per capire veramente la portata del problema, dobbiamo guardare ai numeri. Nel 2024, le cinque maggiori aziende tecnologiche americane (Apple, Microsoft, Google, Amazon e Meta) avevano una capitalizzazione di mercato combinata superiore al PIL della maggior parte dei paesi del mondo. Queste aziende non sono più semplici aziende: sono potenze globali con un’influenza che rivaleggia quella degli stati nazionali.

Prendiamo Google. Ogni giorno, miliardi di persone usano il suo motore di ricerca per trovare informazioni. Questo significa che Google decide, attraverso i suoi algoritmi, quali informazioni sono visibili e quali no. Può far sparire un sito web dai risultati di ricerca con un clic, distruggendo un’attività commerciale o silenziando una voce critica. Ha più potere sulla circolazione delle informazioni di qualsiasi governo, giornale o biblioteca nella storia dell’umanità.

O prendiamo Amazon. Non è solo un negozio online: è l’infrastruttura su cui si basa gran parte di Internet. Amazon Web Services (AWS) ospita i siti web e le applicazioni di milioni di aziende, incluse molte startup che un giorno potrebbero diventare suoi concorrenti. Amazon sa cosa compriamo, cosa leggiamo, cosa guardiamo, cosa ascoltiamo. Ha telecamere nelle nostre case (Ring), assistenti vocali nelle nostre cucine (Alexa), e presto potrebbe avere droni che consegnano pacchi nei nostri giardini.

Meta, la casa madre di Facebook, Instagram e WhatsApp, controlla le piattaforme su cui miliardi di persone comunicano, si informano e formano le loro opinioni. I suoi algoritmi decidono cosa vediamo nei nostri feed, amplificando certi contenuti e sopprimendone altri. Studi hanno dimostrato che questi algoritmi tendono a favorire contenuti emotivamente carichi, polarizzanti, spesso falsi, perché generano più engagement e quindi più entrate pubblicitarie.

Apple, con il suo ecosistema chiuso di dispositivi e servizi, ha creato un giardino recintato in cui centinaia di milioni di persone vivono la loro vita digitale. Controlla quali app possono essere installate sui suoi dispositivi, prende una commissione del 30% su ogni transazione, e può bannare qualsiasi sviluppatore che non rispetti le sue regole, spesso arbitrarie e applicate in modo incoerente.

Microsoft, infine, domina il mondo del software aziendale con Office e Windows, e sta integrando aggressivamente l’intelligenza artificiale in tutti i suoi prodotti attraverso la partnership con OpenAI. Copilot, il suo assistente AI, è già presente in Word, Excel, PowerPoint, Outlook e Teams, raccogliendo dati su come lavoriamo, cosa scriviamo, con chi comunichiamo.

Queste aziende non competono più solo tra loro. Competono con gli stati per il controllo delle nostre vite. E spesso vincono, perché hanno più soldi, più talento, più dati e meno vincoli democratici.

 

L’Italia e l’AI – Tra Ritardi e Opportunità

E l’Italia? Dove si colloca il Bel Paese in questa rivoluzione tecnologica? La risposta, purtroppo, non è incoraggiante. L’Italia è cronicamente in ritardo nell’adozione delle nuove tecnologie, nella formazione digitale, negli investimenti in ricerca e sviluppo.

Secondo l’indice DESI (Digital Economy and Society Index) della Commissione Europea, l’Italia si colloca costantemente nelle ultime posizioni tra i paesi dell’UE per quanto riguarda la digitalizzazione. Solo il 46% degli italiani ha competenze digitali di base, contro una media europea del 54%. La percentuale di laureati in discipline STEM è tra le più basse d’Europa. La banda larga ultraveloce raggiunge solo una frazione delle abitazioni.

Nel campo specifico dell’intelligenza artificiale, la situazione è ancora più critica. L’Italia non ha nessuna azienda AI di rilevanza globale. I migliori talenti italiani nel campo emigrano verso gli Stati Uniti, il Regno Unito o altri paesi europei dove trovano migliori opportunità e stipendi. Gli investimenti pubblici e privati in AI sono una frazione di quelli di Francia, Germania o Regno Unito.

Eppure, l’Italia avrebbe molto da offrire. Una tradizione di eccellenza nel design, nella moda, nel cibo, nell’artigianato che potrebbe essere valorizzata e potenziata dall’AI. Un patrimonio culturale immenso che potrebbe essere digitalizzato, analizzato e reso accessibile grazie all’intelligenza artificiale. Un sistema manifatturiero che potrebbe beneficiare enormemente dall’automazione intelligente.

Il problema è culturale prima che economico. In Italia persiste una diffidenza verso la tecnologia, vista come una minaccia piuttosto che un’opportunità. I media amplificano le paure e ignorano i benefici. Il sistema educativo non prepara i giovani alle sfide del futuro. La burocrazia soffoca l’innovazione.

A person standing on a road with a map and a question mark

Ma non tutto è perduto. Ci sono segnali di risveglio. Alcune università italiane stanno creando corsi e centri di ricerca sull’AI. Startup innovative stanno nascendo, anche se spesso faticano a crescere per mancanza di capitali.

La sfida è trasformare questi segnali in un movimento di massa. Convincere gli italiani che l’AI non è il nemico, ma uno strumento che può aiutarci a risolvere i nostri problemi. Creare un ecosistema favorevole all’innovazione, con meno burocrazia, più capitali, migliore formazione. Valorizzare i talenti italiani invece di lasciarli fuggire all’estero.

 

Consigli Pratici per Sopravvivere nell’Era dell’AI

Dopo tante pagine di analisi, critiche e riflessioni, è il momento di passare alla pratica. Cosa può fare il singolo individuo per navigare questa rivoluzione tecnologica senza esserne travolto? Ecco alcuni consigli, frutto di esperienza diretta e buon senso.

1. Educatevi, ma con criterio. Non dovete diventare ingegneri del machine learning, ma dovreste capire i concetti di base. Cosa sono i LLM, come vengono addestrati, quali sono i loro limiti. Questo vi permetterà di usarli in modo più efficace e di non cadere nelle trappole del marketing.

2. Proteggete i vostri dati. Pensate due volte prima di condividere informazioni personali con qualsiasi servizio online, AI o meno. Usate password manager, autenticazione a due fattori, VPN quando necessario. Leggete (almeno superficialmente) le policy sulla privacy prima di accettarle.

3. Diversificate gli strumenti. Non affidatevi a un unico ecosistema o a un’unica azienda. Usate browser diversi, motori di ricerca alternativi, servizi di aziende diverse. Questo riduce la quantità di dati che ogni singola entità può raccogliere su di voi.

4. Siate critici con le risposte dell’AI. Le allucinazioni sono reali e frequenti. Verificate sempre le informazioni importanti da fonti indipendenti. Non prendete per oro colato tutto ciò che ChatGPT o simili vi dicono.

5. Usate l’AI come strumento, non come oracolo. L’AI è bravissima a generare bozze, riassumere testi, tradurre, brainstormare. È pessima nel prendere decisioni importanti al posto vostro. Usatela per quello che sa fare bene, non per quello che non sa fare.

6. Mantenete le competenze umane. Non delegate all’AI tutto ciò che potete fare voi stessi. Continuate a scrivere, a pensare, a creare. Le competenze che non esercitate si atrofizzano, e un giorno potreste averne bisogno.

7. Partecipate al dibattito pubblico. Informatevi sulle leggi e le regolamentazioni in discussione. Fate sentire la vostra voce. Votate per politici che capiscono la tecnologia e vogliono regolamentarla in modo sensato.

8. Insegnate ai più giovani. Se avete figli, nipoti, studenti, aiutateli a sviluppare un rapporto sano con la tecnologia. Non demonizzatela, ma nemmeno lasciateli soli a navigarla. Insegnate loro il pensiero critico, la verifica delle fonti, la protezione della privacy.

9. Sperimentate con i modelli locali. Se avete competenze tecniche, provate a installare e usare modelli AI che girano sul vostro computer, senza inviare dati a server esterni. È più complicato, ma garantisce privacy e controllo.

10. Non fatevi prendere dal panico. L’AI non vi ruberà il lavoro domani mattina. Non diventerà senziente e non conquisterà il mondo. I cambiamenti saranno graduali e avrete tempo per adattarvi. Ma non fatevi nemmeno cullare dalla complacenza: i cambiamenti ci saranno, e chi non si prepara resterà indietro.

 

Il Futuro del Lavoro – Collaborazione o Sostituzione?

Una delle domande più pressanti che l’intelligenza artificiale pone è quella sul futuro del lavoro. Milioni di persone si chiedono se il loro impiego sarà ancora rilevante tra cinque, dieci, vent’anni. La risposta, come spesso accade, non è semplice.

La storia ci insegna che ogni grande innovazione tecnologica ha distrutto alcuni lavori e ne ha creati altri. La rivoluzione industriale ha eliminato i tessitori manuali ma ha creato operai di fabbrica. L’automobile ha mandato in pensione i maniscalchi ma ha dato lavoro a meccanici e autisti. Il computer ha reso obsoleti i dattilografi ma ha creato programmatori e analisti.

L’intelligenza artificiale seguirà lo stesso schema? Probabilmente sì, ma con alcune differenze cruciali. La velocità del cambiamento è senza precedenti. Mentre la rivoluzione industriale si è sviluppata nell’arco di generazioni, la rivoluzione AI sta avvenendo nell’arco di anni. Questo lascia meno tempo per adattarsi, per riqualificarsi, per trovare nuove opportunità.

Inoltre, l’AI non colpisce solo i lavori manuali e ripetitivi, come le precedenti rivoluzioni tecnologiche. Colpisce anche lavori cognitivi, creativi, professionali. Avvocati, medici, giornalisti, designer, programmatori: nessuna categoria è immune. Questo significa che la classe media istruita, che finora si era sentita al sicuro, deve fare i conti con una nuova realtà.

Ma non tutto è perduto. L’AI, almeno nella sua forma attuale, è brava a svolgere compiti specifici e ben definiti. È pessima nel gestire situazioni ambigue, nel costruire relazioni umane, nel pensare in modo veramente creativo. I lavori che richiedono queste competenze saranno probabilmente gli ultimi a essere automatizzati.

La chiave è la collaborazione, non la competizione. Invece di vedere l’AI come un rivale che ci ruberà il lavoro, dovremmo vederla come un collega che può aiutarci a fare meglio il nostro lavoro. Un medico assistito da AI può diagnosticare più accuratamente. Un avvocato con AI può analizzare più documenti in meno tempo. Un designer con AI può esplorare più opzioni creative.

Questo richiede un cambio di mentalità. Dobbiamo smettere di definirci per i compiti che svolgiamo e iniziare a definirci per il valore che creiamo. Non “scrivo articoli” ma “informo e faccio riflettere le persone”. Non “analizzo dati” ma “aiuto le aziende a prendere decisioni migliori”. Questa ridefinizione ci permette di adattarci quando i compiti specifici vengono automatizzati.

A group of people in a room with robots

 

La Questione della Coscienza – L’AI Può Pensare?

Arriviamo alla domanda delle domande, quella che filosofi, scienziati e scrittori di fantascienza si pongono da decenni: l’intelligenza artificiale può essere cosciente? Può pensare, sentire, avere esperienze soggettive?

La risposta onesta è: non lo sappiamo. Non sappiamo nemmeno cosa sia veramente la coscienza negli esseri umani, figuriamoci se possiamo determinarla nelle macchine. Il “problema difficile della coscienza”, come lo ha definito il filosofo David Chalmers, rimane irrisolto.

Quello che sappiamo è che i LLM attuali non sono coscienti nel senso in cui lo siamo noi. Non hanno esperienze soggettive, non provano emozioni, non hanno desideri o paure. Sono sistemi statistici estremamente sofisticati che generano testo plausibile basandosi su pattern appresi. Quando ChatGPT dice “sono felice di aiutarti”, non sta provando felicità. Sta generando una sequenza di parole statisticamente appropriata al contesto.

Ma questo potrebbe cambiare? Alcuni ricercatori ritengono che la coscienza sia una proprietà emergente della complessità: quando un sistema diventa sufficientemente complesso, la coscienza emerge spontaneamente. Se questo fosse vero, un’AI sufficientemente avanzata potrebbe diventare cosciente.

Altri ritengono che la coscienza richieda qualcosa di più della semplice complessità computazionale. Forse richiede un corpo fisico, un’interazione con il mondo reale, una storia evolutiva. Forse richiede qualcosa che non comprendiamo ancora e che le macchine non possono avere.

La questione non è solo filosofica. Ha implicazioni etiche profonde. Se un’AI fosse cosciente, avrebbe diritti? Sarebbe sbagliato spegnerla? Sarebbe sbagliato farla soffrire? Queste domande, che sembrano fantascienza, potrebbero diventare urgenti nei prossimi decenni.

Per ora, il consiglio è di trattare le AI come strumenti sofisticati, non come esseri senzienti. Non perché sia impossibile che diventino coscienti, ma perché non abbiamo alcuna evidenza che lo siano ora. Antropomorfizzarle, attribuire loro emozioni e intenzioni che non hanno, è un errore che può portare sia a paure ingiustificate sia a fiducia mal riposta.

 

Dieci Previsioni per il Prossimo Decennio

Concludiamo con alcune previsioni su come l’intelligenza artificiale evolverà nei prossimi dieci anni. Sono speculazioni, non certezze, ma basate sulle tendenze attuali e sulle opinioni degli esperti.

1. I modelli diventeranno più piccoli e più efficienti. La corsa ai modelli sempre più grandi rallenterà, sostituita da una corsa all’efficienza. Modelli che oggi richiedono data center enormi gireranno su smartphone e laptop.

2. L’AI multimodale diventerà la norma. I modelli che elaborano solo testo sembreranno primitivi. L’AI del futuro vedrà, sentirà, parlerà e capirà il contesto in modo integrato.

3. Gli agenti AI autonomi diventeranno comuni. Invece di rispondere a singole domande, le AI eseguiranno compiti complessi in autonomia: prenotare viaggi, gestire email, negoziare contratti.

4. La regolamentazione aumenterà. Dopo l’AI Act europeo, altri paesi seguiranno. Ci sarà una frammentazione normativa, con regole diverse in diverse giurisdizioni.

5. I deepfake diventeranno indistinguibili. Sarà impossibile distinguere video reali da video generati. Questo creerà una crisi di fiducia nelle prove visive.

6. L’AI nella sanità farà progressi enormi. Diagnosi più accurate, farmaci sviluppati più velocemente, trattamenti personalizzati. Ma anche nuove questioni etiche sulla privacy dei dati sanitari.

7. Il mercato del lavoro si polarizzerà. Alcuni lavori scompariranno, altri diventeranno più preziosi. La disuguaglianza economica potrebbe aumentare se non gestita.

8. L’AI open source sfiderà i giganti. Modelli sviluppati dalla comunità competeranno con quelli delle Big Tech, democratizzando l’accesso alla tecnologia.

9. La cybersecurity diventerà un incubo. L’AI renderà gli attacchi informatici più sofisticati e difficili da rilevare. Ma anche le difese miglioreranno.

10. La questione della coscienza AI diventerà mainstream. Non perché le AI diventeranno coscienti, ma perché diventeranno così convincenti da sembrarlo. Il dibattito filosofico uscirà dalle accademie e entrerà nelle case.

 

Domande Frequenti sull’Intelligenza Artificiale

Per concludere, rispondiamo ad alcune delle domande più comuni che le persone si pongono sull’intelligenza artificiale. Sono domande che sento continuamente, e le risposte potrebbero sorprendervi.

L’AI mi ruberà il lavoro? Dipende dal lavoro. Alcuni lavori saranno automatizzati, altri trasformati, altri ancora diventeranno più preziosi. La chiave è sviluppare competenze che l’AI non può facilmente replicare: creatività genuina, intelligenza emotiva, pensiero critico, capacità di costruire relazioni.

ChatGPT è intelligente? No, non nel senso umano del termine. È un sistema statistico molto sofisticato che genera testo plausibile. Non capisce veramente ciò che dice, non ha esperienze, non ha coscienza. È uno strumento potente, ma rimane uno strumento.

L’AI diventerà senziente? Non lo sappiamo. Non sappiamo nemmeno cosa significhi veramente “senziente” o come riconoscerlo. Per ora, non c’è alcuna evidenza che le AI attuali siano coscienti, e molti esperti ritengono che l’architettura attuale non possa portare alla coscienza.

Devo preoccuparmi di Skynet? No. L’idea di un’AI che decide autonomamente di sterminare l’umanità è fantascienza. I rischi reali dell’AI sono più banali ma non meno seri: bias, disinformazione, sorveglianza, concentrazione del potere, disoccupazione tecnologica.

Come posso proteggermi dai deepfake? Sviluppate un sano scetticismo verso tutto ciò che vedete online. Verificate le fonti. Cercate conferme indipendenti. Non condividete contenuti sensazionali senza averli verificati. E ricordate che presto sarà impossibile distinguere il vero dal falso solo guardando.

L’AI può essere creativa? Dipende da come definite “creatività”. L’AI può generare contenuti nuovi e sorprendenti, ma lo fa combinando e ricombinando pattern appresi, non attraverso un processo creativo genuino. È più un remix che una creazione originale.

Dovrei usare l’AI nel mio lavoro? Probabilmente sì, se usata con criterio. L’AI può velocizzare molti compiti, liberando tempo per attività a maggior valore aggiunto. Ma non delegate all’AI ciò che richiede giudizio umano, e verificate sempre i suoi output.

L’AI è pericolosa? Come ogni tecnologia potente, può essere usata bene o male. I pericoli reali includono: amplificazione dei bias, diffusione di disinformazione, erosione della privacy, concentrazione del potere economico, uso militare. Ma anche i benefici potenziali sono enormi.

Cosa posso fare io? Informatevi. Siate critici. Proteggete i vostri dati. Partecipate al dibattito pubblico. Insegnate ai più giovani. Usate l’AI come strumento, non come padrone. E non smettete mai di pensare con la vostra testa.

A group of people standing in a circle looking at a question mark

 

Perché Ho Scritto Questo Articolo

Qualcuno potrebbe chiedersi: perché dedicare così tante pagine a un argomento che cambia così velocemente? Tra sei mesi, metà di quello che ho scritto potrebbe essere obsoleto. Nuovi modelli, nuove leggi, nuovi scandali renderanno alcune di queste riflessioni datate.

La risposta è che i principi di fondo non cambiano. La tecnologia evolve, ma la natura umana rimane la stessa. La nostra tendenza a temere il nuovo, a resistere al cambiamento, a cercare capri espiatori, a delegare le decisioni difficili: queste costanti attraversano i secoli.

Ho scritto questo articolo perché credo che abbiamo bisogno di più voci critiche, informate e costruttive nel dibattito sull’intelligenza artificiale. Troppe voci sono o apocalittiche (“l’AI ci distruggerà tutti!”) o acriticamente entusiaste (“l’AI risolverà tutti i nostri problemi!”). La realtà, come sempre, è più sfumata.

Ho scritto questo articolo perché credo che la tecnologia debba essere al servizio dell’umanità, non il contrario. E perché credo che questo obiettivo non si raggiunga da solo: richiede impegno, vigilanza, partecipazione attiva da parte di tutti noi.

Ho scritto questo articolo, infine, perché mi diverte. Perché il sarcasmo è la mia lingua madre. Perché prendere in giro i potenti e gli stupidi è una delle poche gioie rimaste in questo mondo sempre più assurdo.

Se siete arrivati fin qui, complimenti. Avete una soglia di attenzione superiore alla media, il che vi rende già più preparati di molti ad affrontare le sfide che ci attendono. Usate questa capacità saggiamente. Il futuro ha bisogno di persone che sanno concentrarsi, pensare, decidere.

E ora, chiudete questo articolo e andate a fare qualcosa di utile. L’AI non si regolamenterà da sola.

 

Nota Finale dell’Autore

Questo articolo è stato scritto con l’assistenza di strumenti di intelligenza artificiale (la mia AI), il che potrebbe sembrare ironico dato il suo contenuto critico. Ma è proprio questo il punto: l’AI non è il nemico. È uno strumento, potente e pericoloso come tutti gli strumenti potenti, che può essere usato bene o male a seconda di chi lo impugna e con quali intenzioni.

Ho usato l’AI per velocizzare la ricerca, per verificare fatti, per generare bozze che poi ho pesantemente modificato. Non ho usato l’AI per pensare al mio posto, per formare le mie opinioni, per decidere cosa dire e come dirlo. La differenza è cruciale.

Se questo articolo vi ha fatto riflettere, arrabbiare, ridere o preoccupare, ha raggiunto il suo scopo. Se vi ha spinto a informarvi di più, a essere più critici, a partecipare al dibattito, ancora meglio. Se invece lo avete letto distrattamente mentre scrollavate i social, beh, almeno avete dato un po’ di traffico al sito.

Alla prossima, tecnopitechi. E ricordate: il futuro non è scritto. Siamo noi a scriverlo, una riga di codice alla volta.

 

Una Lettera alle Generazioni Future

Cari figlie, figli, nipoti e pronipoti digitali,

Vi scrivo da un’epoca strana, un momento di transizione in cui l’umanità sta creando qualcosa di più grande di sé stessa senza sapere bene cosa farsene. Siamo come bambini che hanno trovato una scatola di fiammiferi: affascinati dalla luce, inconsapevoli del potere distruttivo che abbiamo tra le mani.

Quando leggerete queste parole, probabilmente riderete della nostra ingenuità. I nostri ChatGPT e Gemini vi sembreranno primitivi come a noi sembrano i primi computer che occupavano intere stanze. Le nostre preoccupazioni vi sembreranno esagerate o, al contrario, tragicamente sottovalutate.

Ma spero che capirete che abbiamo fatto del nostro meglio con quello che sapevamo. Che alcuni di noi hanno cercato di mettere in guardia, di regolamentare, di educare. Che non tutti si sono arresi al fatalismo tecnologico o si sono lasciati abbagliare dalle promesse dei venditori di fumo.

Vi chiedo scusa per gli errori che abbiamo commesso e che commetteremo. Per i bias che abbiamo instillato nelle macchine. Per i dati che abbiamo regalato senza pensare alle conseguenze. Per le regole che non abbiamo scritto o che non abbiamo fatto rispettare.

Ma vi chiedo anche di non giudicarci troppo severamente. Eravamo i primi a confrontarci con queste sfide, senza precedenti storici a cui guardare, senza mappe per orientarci. Abbiamo navigato a vista in acque inesplorate, e se siamo arrivati fin qui, forse non abbiamo fatto poi così male.

Il testimone ora passa a voi. Fate meglio di noi. Siate più saggi, più coraggiosi, più responsabili. Non lasciate che la tecnologia vi controlli; controllatela voi. Non accettate passivamente il mondo che vi viene dato; plasmatelo secondo i vostri valori.

E ricordate sempre: l’intelligenza artificiale non è né buona né cattiva. È uno specchio che riflette chi siamo. Se volete un’AI migliore, siate esseri umani migliori.

Con speranza e un pizzico di sarcasmo,

Un uomo fuori luogo e fuori tempo.

 

Glossario dei Termini Tecnici

AGI (Artificial General Intelligence): Intelligenza artificiale in grado di svolgere qualsiasi compito intellettuale che un essere umano può svolgere. Ancora teorica, rappresenta il “Santo Graal” della ricerca sull’AI.

ADAS (Advanced Driver Assistance Systems): Sistemi avanzati di assistenza alla guida, come il mantenimento della corsia, il cruise control adattivo e il riconoscimento dei segnali stradali.

Bias cognitivo: Distorsione sistematica nel modo in cui elaboriamo le informazioni, che può portare a giudizi irrazionali o pregiudizi.

Deep Learning: Sottocampo del machine learning basato su reti neurali artificiali con molti strati (da cui “deep”, profondo).

GDPR (General Data Protection Regulation): Regolamento europeo sulla protezione dei dati personali, entrato in vigore nel maggio 2018.

Hallucination (Allucinazione): Quando un modello di AI genera informazioni false o inventate presentandole come fatti.

LDA (Lane Departure Alert): Sistema che avvisa il guidatore quando il veicolo sta uscendo dalla corsia senza che sia stata attivata la freccia.

LLM (Large Language Model): Modello di intelligenza artificiale addestrato su enormi quantità di testo, capace di generare e comprendere il linguaggio naturale.

MCP (Model Context Protocol): Protocollo aperto sviluppato da Anthropic per permettere alle applicazioni AI di connettersi a sistemi esterni.

Prompt: L’input testuale fornito a un modello di AI per ottenere una risposta.

RAG (Retrieval-Augmented Generation): Tecnica che combina la generazione di testo con il recupero di informazioni da fonti esterne, per migliorare l’accuratezza delle risposte.

RSI (Road Sign Information): Sistema che riconosce i segnali stradali e avvisa il guidatore quando supera i limiti di velocità.

Transformer: Architettura di rete neurale introdotta nel 2017, alla base dei moderni LLM.

Uncanny Valley (Valle Perturbante): Fenomeno per cui la risposta emotiva umana verso un robot diventa negativa quando questo appare quasi, ma non perfettamente, umano.

 

Risorse per Approfondire

Per chi volesse approfondire i temi trattati in questo articolo, ecco alcune risorse consigliate:

Libri: – “Life 3.0” di Max Tegmark – Una panoramica accessibile sul futuro dell’intelligenza artificiale – “Weapons of Math Destruction” di Cathy O’Neil – I pericoli degli algoritmi nella società – “The Age of Surveillance Capitalism” di Shoshana Zuboff – Come le Big Tech monetizzano i nostri dati – “Human Compatible” di Stuart Russell – Come creare AI sicure e benefiche – “Io, Robot” di Isaac Asimov – I classici racconti che hanno definito l’etica della robotica

Documentari: – “The Social Dilemma” (Netflix) – Gli effetti dei social media sulla società – “Coded Bias” (Netflix) – I bias razziali e di genere negli algoritmi – “AlphaGo” (YouTube) – La storia dell’AI che ha battuto il campione mondiale di Go

Siti web: – artificialintelligenceact.eu – Tutto sull’AI Act europeo – modelcontextprotocol.io – Documentazione sul protocollo MCP – huggingface.co – Piattaforma per modelli AI open source – arxiv.org – Paper scientifici sull’AI (per i più tecnici)

Podcast: – “Lex Fridman Podcast” – Interviste approfondite con esperti di AI – “Hard Fork” (New York Times) – Notizie e analisi sulla tecnologia – “AI Alignment Podcast” – Focus sulla sicurezza dell’AI

Corsi online: – “Elements of AI” (elementsofai.com) – Corso gratuito sui fondamenti dell’AI – “Machine Learning” di Andrew Ng (Coursera) – Per chi vuole approfondire tecnicamente – “AI For Everyone” (Coursera) – Introduzione non tecnica all’AI

 

Riferimenti

[1] Asimov, I. (1942). “Runaround”. Astounding Science Fiction.

[2] Mori, M. (1970). “Bukimi no Tani” (The Uncanny Valley). Energy, 7(4), pp. 33-35.

[3] Vaswani, A. et al. (2017). “Attention is All You Need”. Advances in Neural Information Processing Systems.

[4] MIT Media Lab (2018). “Norman: World’s First Psychopath AI”. https://www.media.mit.edu/projects/norman/overview/

[5] Regolamento (UE) 2016/679 (GDPR). Gazzetta Ufficiale dell’Unione Europea, 4 maggio 2016.

[6] Regolamento (UE) 2024/1689 (AI Act). Gazzetta Ufficiale dell’Unione Europea, 12 luglio 2024.

[7] Anthropic (2024). “Introducing the Model Context Protocol”. https://www.anthropic.com/news/model-context-protocol

[8] UNESCO (2024). “Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotypes”.

[9] BBC News (2023). “Florida school principal resigns after students shown Michelangelo statue”.

[10] The Third Man (1949). Regia di Carol Reed. Sceneggiatura di Graham Greene.

[11] United Nations General Assembly (2024). Resolution on Lethal Autonomous Weapons Systems.

[12] New York Times (2025). “In Ukraine, an Arsenal of Killer A.I. Drones Is Being Born”.

 

 

Share:

Add comment:

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.