Intelligenza Artificiale e Sorveglianza: Le Verità svelate da Daniela Tafani

Nel contesto della conferenza A/simmetrie 2023, la prof.ssa Daniela Tafani ha offerto un’analisi straordinaria ei illuminante sull’intelligenza artificiale (IA) e sul mercato che la alimenta. L’argomento, lo vedremo, si estende infatti ben oltre i confini della pura tecnologia. La sua relazione, accuratamente trascritta qui, si immerge nel cuore delle implicazioni sociali, etiche e politiche dell’IA, mettendo in discussione le narrazioni convenzionali e esplorando i potenziali rischi di sorveglianza e manipolazione che si celano dietro l’avanzata tecnologica.

Attraverso un linguaggio chiaro e un’analisi approfondita, Tafani ci guida in un viaggio che va dalle fondamenta tecniche dell’IA, distinguendo tra simbolica e sub-simbolica, fino ad arrivare alle sue ramificazioni nella società moderna, evidenziando come l’IA influenzi e sia influenzata da chiare dinamiche di potere e controllo. La sua disamina critica ci offre una prospettiva essenziale per comprendere e navigare il complesso paesaggio dell’IA nel nostro mondo contemporaneo.

Di seguito, presentiamo la sbobinatura integrale del suo discorso, che speriamo possa stimolare una riflessione profonda e informata sull’argomento. Lo scritto è molto lungo ma vale la lettura, cosi come ovviamente si consiglia la visione integrale del suo strepitoso discorso sul Canale YouTUbe A/Simmetrie


Buongiorno a tutti. Grazie moltissime dell’invito, mi fa molto piacere essere qui oggi. Sono grata in particolare a Benedetto Ponti e Alberto Bagnai per avermi invitata. Oggi parliamo di intelligenza artificiale. Credo che l’intelligenza artificiale sia perfetta per il tema di questa iniziativa: “non è come sembra”, dovremmo dirlo più spesso di quanto diciamo “intelligenza artificiale”.

Faccio una premessa brevissima per introdurre il tema. Quando parliamo di sistemi di intelligenza artificiale, oggi parliamo normalmente di intelligenza artificiale sub simbolica. Che vuol dire? Vuol dire che è diversa dall’intelligenza artificiale tradizionale, quella con cui abbiamo conosciuto qualche decennio fa, che era intelligenza artificiale simbolica, semplice, fondata sulla logica, sulla logica aristotelica. E’ importante questo aspetto: l’intelligenza artificiale simbolica è sempre spiegabile perché è fondata sulla logica.

Quando scriviamo un programma, se il programmatore commette un errore, il sistema può comportarsi in modo imprevisto. In questi casi, possiamo sempre analizzare il codice per identificare l’errore. Ad esempio, consideriamo una pagina HTML: la scriviamo, la caricamo e se risulta disordinata, possiamo esaminare il codice per trovare e correggere gli errori commessi durante la scrittura o la copia del codice. Tuttavia, questo approccio non è applicabile ai sistemi di apprendimento automatico. Sono basati su metodi statistici e costruiscono modelli a partire da esempi, senza eseguire compiti particolarmente intelligenti: sono essenzialmente statistiche automatizzate. Il loro potere deriva dalle attuali infrastrutture di calcolo avanzate, che offrono una potenza di calcolo per unità di costo notevolmente aumentata.

Spesso si sente parlare della vasta quantità di dati disponibili ‘in natura’. Questa espressione, tradotta dall’inglese ‘from the wild’, può essere fuorviante. ‘In natura’ è come dire, ad esempio, che ho trovato un portafoglio nella tua borsa: è vero che si trova ‘in natura’, ma esistono anche regolamentazioni e istituzioni che governano l’uso di questi dati. L’abbinamento di questa enorme quantità di dati con la potenza di calcolo e algoritmi sviluppati decenni fa ha permesso di ottenere risultati innovativi. Per esemplificare, c’è stato uno sviluppo genuino in alcune funzioni specifiche: confrontando l’uso di un traduttore automatico 15 anni fa con quello attuale, si nota un miglioramento significativo.

L’efficacia della statistica nei sistemi di apprendimento automatico risiede nella sua capacità di eseguire compiti che sarebbero impossibili con la modellazione esplicita. Prendiamo, ad esempio, il riconoscimento delle immagini. Se chiedessimo a chiunque di voi di descrivere le differenze tra un cane e un gatto in modo tale da distinguere sempre correttamente tra le due in qualsiasi immagine, probabilmente non sareste in grado di farlo. Eppure, sorprendentemente, anche un bambino molto piccolo, prima ancora di saper parlare, è in grado di riconoscere e distinguere questi animali, dicendo ‘bau’ o ‘miao’. Questo accade senza che il bambino abbia bisogno di vedere milioni di esempi; ne bastano molti meno. Se un bambino avesse bisogno di un numero così elevato di esempi per imparare, sarebbe motivo di preoccupazione.

Da ciò, possiamo dedurre che i sistemi di apprendimento automatico non imparano come i bambini. Nessun bambino necessita di un miliardo di immagini etichettate di cani e gatti per riuscire a distinguerli. Inoltre, i bambini sono capaci di riconoscere questi animali dopo averne visti pochi esempi, e lo fanno con una precisione impeccabile. Come ci riescono? Non siamo ancora in grado di spiegare questo processo in termini espliciti. Tuttavia, ciò non implica una nostra limitazione intellettuale; al contrario, dimostra che la nostra intelligenza è talmente avanzata che ci permette di compiere attività che vanno oltre la nostra piena consapevolezza e comprensione.

Perché attribuiamo tanta intelligenza alle macchine? La ragione è che una macchina può essere estremamente efficiente in una funzione specifica. Tuttavia, questo non è un fenomeno nuovo. Ricordo di aver avuto una calcolatrice alle elementari che eseguiva operazioni matematiche molto meglio di me, ma non per questo la consideravo ‘sovrumana’. Allo stesso modo, la mia lavatrice pulisce le lenzuola meglio di quanto potrei fare io, ma non la definirei sovrumana. E se si guasta e allaga la mia casa, non posso accettare la spiegazione di un tecnico che afferma: ‘Non è rotta, semplicemente non è abbastanza avanzata da evitare di allagare la casa. Con l’etica delle lavatrici risolveremo tutto’. Questo discorso sull’etica si applica anche all’intelligenza artificiale.

Se un sistema non funziona, sia perché non è progettato per svolgere una certa funzione, sia perché quella funzione è intrinsecamente impossibile, non possiamo risolvere il problema con l’etica. L’etica diventa un diversivo, un modo per i produttori di dire: ‘Non è colpa nostra, la macchina è talmente intelligente da essere un’entità autonoma, quindi non puoi attribuire a me le sue azioni. Dovremmo lavorare tutti insieme per insegnarle a comportarsi bene’. Questa è una narrazione costruita, con un doppio livello: da un lato, rappresenta la nostra tendenza naturale a personificare e antropomorfizzare gli oggetti tecnologici, dall’altro, è uno stratagemma per deviare la responsabilità dalle aziende ai filosofi morali, accusati di non aver ancora sviluppato un’etica condivisa per gestire tali situazioni.

Qui, le narrazioni non sono spontanee; sono piuttosto storie pesantemente finanziate dalle grandi aziende. Questo meccanismo si è rivelato chiaro intorno al 2010, quando si è verificato un significativo salto tecnologico. Le grandi aziende, che possedevano gli elementi chiave come algoritmi, infrastrutture di calcolo e dati ‘in natura’, hanno compreso di avere il monopolio su queste risorse essenziali. La ragione di questo monopolio? Un modello di business già esistente basato sulla sorveglianza.

Queste aziende erano già attrezzate per ‘pescare’ dati, spesso attraverso consensi ingannevoli. Lasciatemi fare un paragone: entrare nel mondo digitale è come entrare in un negozio e rinunciare ai propri diritti costituzionali. È come se il negoziante ti dicesse: ‘Per comprare questa sedia, devi rinunciare ai tuoi diritti’. In questo modo, non solo ti vendo la sedia, ma mi riservo anche il diritto di sedermici, osservarti dentro casa tua e vendere i tuoi dati.

Le aziende con un modello di business basato sulla sorveglianza hanno sfruttato questa opportunità per venderci una promessa – spesso solo una promessa – di profilazione algoritmica, manipolazione comportamentale o previsione delle nostre azioni. Con il controllo esclusivo su questi ‘ingredienti’ essenziali, hanno pensato: ‘Se possiamo tradurre ciò che le persone scrivono, perché non affermare che le capiamo anche?‘ Da qui la nascita di prodotti come fidanzate artificiali, compagni artificiali, assistenti mentali e agenti conversazionali. Un mercato senza fine.

E se possiamo identificare tratti somatici da una foto, perché non sostenere di poter riconoscere un ladro o un buon lavoratore? Nel Regno Unito, durante il lockdown, molti studenti hanno ricevuto voti assegnati da un sistema che ‘prediceva’ i loro risultati, basati su correlazioni statistiche. Questi sistemi possono facilmente perpetuare pregiudizi: se predici che le persone in quartieri svantaggiati o con famiglie monogenitoriali avranno risultati peggiori, questo diventa una profezia autoavverante. Se limitiamo le donne a ruoli da segretaria, se inviamo la polizia solo in quartieri di persone di colore, stiamo semplicemente confermando pregiudizi preesistenti.

Il meccanismo è elementare, ma non ce ne rendiamo conto perché queste narrazioni sono state abilmente costruite dalle aziende per sostenere la vendita di prodotti ‘intelligenti’.

Perché questi prodotti spesso non funzionano come previsto? Il problema risiede nella difficoltà di distinguere tra correlazioni causali e spurie nei sistemi basati su modelli statistici. Questi sistemi ottimizzano i risultati, cercando di minimizzare la distanza tra l’output del sistema e un target predefinito. Se fornisco al sistema un miliardo di foto etichettate, anche da persone pagate pochissimo, il sistema traccia correlazioni senza distinguere tra cause e coincidenze. Se un sistema identifica, ad esempio, che studenti provenienti da una certa area geografica tendono a sostenere più volte un esame, potrebbe continuare a ripetere questa discriminazione, automatizzando e naturalizzando le differenze del passato.

Il punto cruciale è diventato evidente non solo concettualmente, ma anche attraverso i racconti dei primi whistleblower. Un ricercatore ha esposto le problematiche dei sistemi di supporto alle decisioni utilizzati dai giudici negli Stati Uniti. Per oltre un decennio, questi sistemi hanno aiutato i giudici a decidere se concedere o meno la libertà sulla parola, basandosi su un calcolo del rischio di recidiva. Questo ricercatore ha rivelato che i sistemi non erano in grado di fare previsioni accurate, poiché si basavano su dati non corretti o incompleti, come il numero di arresti o condanne, che non riflettono necessariamente la realtà dei reati commessi.

Questo problema si estende anche alle nostre presunte preferenze online: sono veramente le nostre preferenze o semplicemente i risultati di manipolazioni e click casuali? Il ricercatore ha resistito alla pressione di dichiarare il sistema efficace, nonostante i suoi superiori insistessero sul contrario, sostenendo che fosse più affidabile delle decisioni umane, che possono essere influenzate da fattori come l’umore o situazioni personali.

Questa situazione ci riporta a un’antropologia di base: sì, gli esseri umani possono sbagliare o discriminare, ma questo non giustifica l’uso acritico di sistemi di intelligenza artificiale. È come se, di fronte a una lavatrice guasta che ha allagato una casa, il tecnico incolpasse l’utente per aver lasciato aperta l’acqua. C’è una tendenza a sminuire gli errori umani per giustificare le carenze della tecnologia, ma come la storia del ricercatore mostra, questo approccio è problematico e può portare a decisioni gravemente errate.

A questo punto, dobbiamo riconoscere che le grandi aziende, che in realtà sono monopoli, esercitano un potere significativo. Già nel 1890 negli Stati Uniti, si era compreso che non si possono avere contemporaneamente democrazia e monopoli. I monopoli detengono un potere economico e politico notevole. Il senatore che ha redatto le prime leggi antitrust sosteneva che, come non vogliamo un re o un despota politico, allo stesso modo non dovremmo volerlo in ambito commerciale. Se aziende come Amazon, Facebook o Google decidono che qualcuno debba ‘scomparire’, ciò avviene realmente. Se queste aziende decidono che un venditore non debba più esistere sul loro mercato, questo venditore cesserà di esistere.

Se state vendendo un prodotto, ma Amazon e Google decidono di rendervi invisibili, allora effettivamente non esisterete più nel mercato. Questo dimostra il potere immenso che queste entità detengono. In sociologia, questo fenomeno è noto come ‘cattura del regolatore‘, che può avvenire in diversi modi. Il metodo più diretto e brutale è il pagamento del regolatore, spesso rivelato da scandali finanziari. Un altro metodo è quello delle ‘porte girevoli’, dove si vedono gli stessi individui passare da enti statali a istituzioni indipendenti e poi a grandi aziende tecnologiche. Questo processo è più sottile ma ugualmente influente. Un meccanismo ancora più efficace è quello della ‘cura culturale’, soprattutto in un contesto dove le aziende monopolistiche controllano i media e gli intermediari scientifici. Queste aziende spesso finanziando le università, che a loro volta sono spinte a cercare finanziamenti esterni a causa delle loro limitate risorse economiche. Questo finanziamento privato, necessario per infrastrutture di ricerca costose, porta a una commercializzazione dell’etica nell’intelligenza artificiale. L’etica diventa una merce acquistata per il capitale reputazionale, trasformando le aziende in gigantesche agenzie di marketing.

Questo porta a interrogarsi sull’esistenza e l’efficacia dell’etica nell’intelligenza artificiale. È ironico come sembri che le costituzioni non siano più rilevanti in questo contesto. Non solo non è necessaria, ma può anche essere dannosa, distrarci e impedirci di richiedere alle aziende di rispettare le leggi più basilari. Un esempio è la mancanza di trasparenza nei prodotti tecnologici, che spesso risultano essere opachi e incomprensibili, basati su correlazioni irrilevanti ai fini dell’uso desiderato. La questione diventa quindi se un prodotto dovrebbe essere commercializzato se non è spiegabile, o se i suoi danni superano i benefici.

Quindi, ci troviamo di fronte a un dilemma: se un prodotto non è spiegabile, dovrebbe essere messo in commercio? O i suoi danni superano i benefici? Prendiamo ad esempio i generatori di linguaggio. Questi strumenti possono produrre testi plausibili senza distinzione tra verità e menzogna, risultando estremamente utili per scopi fraudolenti, per inquinare il dibattito politico, o per altre manipolazioni ingannevoli. Nonostante la loro apparente inutilità nel promuovere un pensiero critico reale, la loro efficacia in questi scopi secondari è innegabile.

La questione diventa ancora più complessa quando si considerano le forze economiche e finanziarie che supportano queste tecnologie. Diversamente dal modello tradizionale di un’azienda che vende un prodotto e ne è responsabile nei confronti dei clienti, qui abbiamo a che fare con venture capitalist e investimenti ad alto rischio. L’obiettivo principale non è necessariamente quello di creare un prodotto funzionale, ma piuttosto di mantenerne l’illusione di funzionalità per un periodo sufficientemente lungo. Questo periodo deve estendersi fino al raggiungimento di una ‘hype’, un’acquisizione o simili, al fine di massimizzare i profitti prima di cedere l’asset.

In questo contesto, fenomeni come il metaverso o la blockchain possono sembrare rivoluzionari, ma in realtà potrebbero non essere altro che nuove ‘bolle’ di speculazione. Queste tendenze emergenti vengono spesso esaltate oltre la loro reale sostanza, fungendo più come bolle speculative che come reali innovazioni tecnologiche o sociali. La vera ‘bolla’ in questo scenario è quella giuridica, rappresentando un terreno ancora inesplorato e pieno di incognite.

Sono sistemi che si reggono sulla costitutiva violazione di diritti già sanciti giuridicamente. Ora, vi porto una rilevazione. La base dati che serve per classificaci sui social è fatta con 650.000 etichette e uno dice: “Dove ce l’ho io, 650.000 variabili che i soggetti privati possano utilizzare?” Le avete, eccome: siete inclini alla depressione, cercate spesso su internet tumore al cervello o Parkinson? Nel periodo di Natale guardate sempre le auto di un certo tipo ma poi non le comprate? Siete a favore o contro l’aborto? Siete a favore o contro la pena di morte? Avete sintomi di insonnia o crampi mestruali? Eh, il vostro sonno è buono o cattivo, perché ovviamente c’è una certa ora in cui i vostri dispositivi si spengono e si riaccendono. Sono indizi. Siete forti acquirenti di test di gravidanza, siete simpatizzanti o o vi fanno schifo le persone che si fanno i tatuaggi. Insomma, è una lista che non finisce mai, sono 650.000 variabili. Quindi, ci sono tutte queste variabili, poi cosa succede? Che nel momento in cui siete onine, quello spazio vuoto che si riempie con la pubblicità è all’asta, quindi qualcuno lo compra istantaneamente, ovviamente si tratta di frazioni di secondo, lo compra, quindi che cosa vuol dire? Che se non ho nulla da nascondere, non ho problemi, ma questa è una stupidaggine.

Per illustrare con un esempio concreto, prendiamo il caso di Facebook, che tracciava le prenotazioni ospedaliere, annotando non solo chi effettuava la prenotazione ma anche la specializzazione del medico. Queste informazioni venivano poi vendute a compagnie che commercializzavano limonate, presentandole come rimedi contro il cancro. Le persone, disperate, le acquistavano. Questo tipo di segmentazione degli utenti, pur non essendo basata su una psicologia profonda, è molto efficace. Se una pubblicità di una limonata come cura del cancro appare su un giornale, tutti possono leggerla e metterla in discussione. Ma se raggiunge solo la persona direttamente interessata, vulnerabile e disperata, la probabilità di acquisto aumenta notevolmente. E la responsabilità etica? Se la persona muore, le conseguenze legali diventano irrilevanti.”

Passiamo ora a una riflessione sul linguaggio. Molti termini vengono reinterpretati con nuovi significati, spesso senza che ce ne accorgiamo, assorbendo così inconsciamente le implicazioni politiche. Prendiamo ad esempio la cosiddetta ‘rivoluzione 4.0’ o ‘rivoluzione dell’intelligenza artificiale’. Ma cosa significa realmente ‘rivoluzione’? Storicamente, il termine ha due significati principali: uno astronomico, dove indica un movimento circolare, e uno politico, riferito a grandi cambiamenti sociali dove una parte della popolazione rivendica diritti con la forza. La ‘rivoluzione’ dell’intelligenza artificiale non corrisponde a nessuno di questi significati. Non è un processo circolare né un movimento lineare guidato dalla popolazione. Piuttosto, è un movimento lineare che parte da un futuro ipotetico e si impone verso il presente, con un tono profondamente antidemocratico. Ci viene detto di adattarci a questa ‘rivoluzione’, una trasformazione che non abbiamo scelto e che non comprendiamo appieno, spesso affidandoci agli ‘esperti’ per capire a cosa dobbiamo adattarci e come, rivelando un nuovo significato di tecnologia e il suo impatto sul nostro futuro.

Le tecnologie possono emergere in vari modi, ma il modo in cui vengono utilizzate non è predeterminato. Un esempio storico è l’introduzione dei telai durante la rivoluzione industriale in Inghilterra. I proprietari, vedendo che anche i bambini potevano utilizzare questi telai, decisero di licenziare gli artigiani adulti e impiegare il lavoro minorile. Questa scelta non era un’inevitabilità della tecnologia del telaio, ma una decisione basata su interessi economici. Questo esempio dimostra che l’uso delle tecnologie è guidato da scelte umane e che le regole possono essere stabilite per governarne l’impiego.

Un altro mito diffuso è quello del multimiliardario geniale, descritto spesso come un genio del bene o del male. Ma in realtà, in un contesto dove le leggi antitrust non sono efficaci, non occorre essere un genio per adottare pratiche anticoncorrenziali e monopolizzare il mercato. Prendiamo ad esempio Amazon, che ha creato un ‘giardino recintato’ per acquirenti e venditori, rendendo difficile per questi ultimi operare al di fuori del suo ecosistema. Amazon controlla la logistica, la distribuzione, e può persino produrre prodotti simili a quelli venduti dai suoi utenti, posizionando i propri in cima e quelli degli altri in fondo. Questo non richiede genialità, ma semplicemente l’assenza di leggi antitrust efficaci.

Questa situazione evidenzia un mito fondamentale della tecnologia: l’inevitabilità. Già negli anni ’70, Joseph Weizenbaum parlava di questo concetto. Questo mito ci fa credere che dobbiamo semplicemente adattarci a una realtà tecnologica predefinita, nascondendo gli attori reali dietro queste tecnologie. La tecnologia non si sviluppa in un vuoto; c’è sempre qualcuno dietro alla sua creazione e alle sue finalità. Come scrisse Adam Smith, non dobbiamo affidarci alla benevolenza di chi detiene il potere, come il macellaio o il fornaio nella sua metafora. È quindi fondamentale riconoscere e comprendere le narrazioni che guidano lo sviluppo tecnologico e non accettare passivamente la tecnologia come un dato di fatto immutabile.

La AI è spesso rappresentata come un simpatico robotino che ci porge un albero. Questa immagine contrasta nettamente con la realtà dei Data Center giganteschi, spesso al centro delle proteste popolari, soprattutto in aree dove l’acqua è scarsa e questi centri la consumano in grandi quantità. Non si tratta di demonizzare la tecnologia, ma di riconoscere che dietro l’immagine antropomorfizzata che spesso ci viene presentata, si nasconde una realtà molto più complessa. Parlando di intelligenza artificiale, non possiamo ignorare il suo impatto reale: il consumo di acqua, energia, terre rare e il coinvolgimento della forza lavoro.

Un altro tema rilevante è il mito della sostituzione del lavoro umano con l’intelligenza artificiale. Spesso si ipotizza che le macchine ‘rubino’ il lavoro agli umani, rendendoci inattivi. Tuttavia, un report della Banca Mondiale stima che ci siano tra i 154 e i 400 milioni di lavoratori impegnati nelle piattaforme digitali. Questi ‘lavoratori delle piattaforme’, invisibili ai più, sono essenziali per il funzionamento di aziende come Amazon, che ha persino nominato la propria piattaforma di intermediazione del lavoro digitale ‘Turco Meccanico’, in riferimento a un famoso inganno storico. Questo nome allude al fatto che, nonostante le apparenze, l’intelligenza artificiale dipende fortemente dall’intervento umano.

Amazon ha scelto questo nome con una certa audacia e onestà intellettuale, per sottolineare che l’intelligenza artificiale, come ha affermato il CEO di Amazon, è ‘artificiale’ nel senso più letterale del termine. Si basa su milioni di persone che etichettano e categorizzano dati, un processo non così automatico come si potrebbe pensare. Un esempio chiaro è la sospensione delle auto a guida autonoma da parte di Cruise negli Stati Uniti, a causa di gravi incidenti. Questi incidenti dimostrano le limitazioni di un sistema che, basandosi su statistiche, può commettere errori fatali, come confondere un camion bianco con il cielo o la luna con un semaforo.”

È comprensibile che un sistema basato sul calcolo delle correlazioni tra pixel commetta errori. Questa limitazione è stata messa in evidenza quando si è scoperto che, per ogni due auto a guida autonoma in circolazione, c’erano tre lavoratori a distanza che le monitoravano costantemente. Questo rivela un mix di inaffidabilità e dipendenza da intervento umano, simile al ‘turco meccanico’ storico.

Nell’ambito dell’intelligenza artificiale, commettiamo spesso tre fallacie. La prima è quella della funzionalità: presumiamo che se un compito è svolto dall’intelligenza artificiale, allora funziona automaticamente. Tuttavia, raramente ci chiediamo se esiste una correlazione scientificamente valida tra i dati di partenza e i risultati previsti. Ad esempio, non esiste una correlazione scientifica tra l’aspetto fisico di una persona e la sua efficienza lavorativa, ma l’intelligenza artificiale viene spesso commercializzata come se potesse fare previsioni affidabili su questi aspetti.

Quando è evidente che i sistemi non funzionano come previsto, si ricorre alle altre due fallacie. La seconda è quella di prendere esempi dal futuro, con l’assunzione che questi sistemi miglioreranno. Ad esempio, i generatori di linguaggio, che spesso producono risultati ‘allucinati’, vengono difesi con l’argomento che ‘presto funzioneranno meglio’. Ma basarsi su ipotetici progressi futuri è ingannevole.

La terza fallacia è quella del primo passo: l’idea che ci sia una progressione lineare dalla tecnologia attuale all’intelligenza artificiale generale, paragonabile a quella umana. È come presumere che, perché una scimmia può salire su un albero, potrebbe anche raggiungere la luna. Questo tipo di pensiero ignora il fatto che l’intelligenza artificiale attuale manca di elementi fondamentali dell’intelligenza umana, come il senso comune, la capacità di distinguere tra correlazioni causali e spurie, la comprensione del linguaggio e la generalizzazione.

Infine, nessuno ha ancora riuscito a integrare sistemi simbolici e sub-simbolici in modo efficace. Ad esempio, GPT, pur essendo avanzato nella generazione di testi, non possiede meccanismi logici per eseguire operazioni o comprendere il significato profondo del linguaggio. Quindi, l’ipotesi che possiamo semplicemente ‘progredire’ verso un’intelligenza artificiale più avanzata senza cambiamenti sostanziali è, al momento, non comprovata. Il futuro dell’intelligenza artificiale è ancora incerto, e ciò che manca a questi sistemi è proprio ciò che definisce l’intelligenza umana generale.

L’intelligenza artificiale, come GPT di OpenAI, opera sulla base di una vasta quantità di dati raccolti ‘in natura’, risultando efficiente in quello che fa. Tuttavia, è importante sottolineare che questa efficienza non implica una comprensione del vero e del falso. L’uso del termine ‘allucinazione’ per descrivere gli errori dell’intelligenza artificiale è fuorviante. Questo perché il termine presuppone uno stato di coscienza e la capacità di distinguere il vero dal falso, che una macchina semplicemente non possiede. L’intelligenza artificiale si basa sulla generazione di testo plausibile tramite la distribuzione di probabilità dei dati e il feedback umano nella calibrazione, non sulla percezione o sull’interpretazione della realtà.

In parallelo, si presenta una questione legale e etica simile a una scena di ‘Pinocchio’, dove la responsabilità viene invertita. Ad esempio, OpenAI afferma nei suoi termini e condizioni che gli utenti sono responsabili degli output dei loro generatori di linguaggio. Ma è ragionevole? Come possono gli utenti essere ritenuti responsabili di output potenzialmente dannosi o falsi, che essi stessi non hanno intenzionalmente generato?

Questo problema si estende anche al campo dell’automazione veicolare. Si è ipotizzato, ad esempio, che Tesla avrebbe programmato i suoi veicoli per disattivare l’autopilota un secondo prima di un impatto, trasferendo la responsabilità all’utente umano anziché al sistema. Se ciò fosse vero, rappresenterebbe un grave problema di responsabilità e sicurezza.

Inoltre, si assiste a una crescente confusione tra ricerca e commercio. OpenAI e altre aziende presentano i loro prodotti come parte di un continuo processo di ricerca, ma allo stesso tempo, li vendono come servizi commerciali. L’idea che siamo tutti parte di una ‘straordinaria fase di ricerca’ e che, di conseguenza, le regole ordinarie non si applicano, è problematica. Gli utenti finiscono per lavorare gratuitamente, segnalando errori e miglioramenti, mentre assumono la responsabilità per i difetti dei prodotti.

Infine, c’è una narrazione che pone l’innovazione come un principio incontestabile e benefico in sé. Tuttavia, questo ignora il fatto che alcune innovazioni possono essere ‘tossiche’, specialmente se promosse da monopoli che sopprimono alternative che non si allineano ai loro modelli di business. La sfida non è rendere ‘buoni’ questi monopoli, ma piuttosto, come sottolinea il discorso, di ‘sbriciolarli’ per permettere una vera innovazione e una maggiore responsabilità etica.

Una narrazione comune riguardante l’intelligenza artificiale è quella di un presunto ‘vuoto giuridico’. Si sostiene che, a causa della novità e della complessità dell’IA, le leggi esistenti non siano applicabili. Tuttavia, la Federal Trade Commission (FTC) degli Stati Uniti ha chiaramente respinto questa nozione, affermando che l’idea di un’esenzione legale per l’IA è assurda. Se un sistema IA non rispetta le leggi vigenti, non significa che le leggi debbano essere riscritte; piuttosto, il sistema stesso dovrebbe essere adeguato per conformarsi alla normativa esistente.

Il processo di aggiornamento delle leggi per tenere il passo con i progressi tecnologici è lungo e farraginoso. Il legislatore, immaginato come ritirato in una ‘stanzetta polverosa’, impiega anni per formulare nuove leggi, solo per scoprire che, una volta completate, sono già superate da nuove tecnologie. Questo ciclo porta a una situazione prolungata in cui le leggi sono inadeguate o inapplicabili, favorendo gli interessi delle aziende a discapito della protezione legale dei cittadini.

Un esempio specifico riguarda la violazione della privacy. I generatori di linguaggio, che possono essere calibrati sui messaggi di posta elettronica degli individui, sollevano questioni sulla violazione del diritto costituzionale all’inviolabilità della corrispondenza personale. È stato osservato che sembra esserci un’eccezione implicita quando si tratta di app: se la violazione avviene attraverso un’applicazione, sembra essere tollerata. Tuttavia, questo non è supportato da alcuna base legale.

Lina Khan, presidente della FTC, ha esplicitamente dichiarato che non esiste un’esenzione per l’intelligenza artificiale nei codici giuridici. Negli Stati Uniti, quindi, si sta tentando di affrontare questa problematica. In Europa, tuttavia, si assiste a comunicati che enfatizzano l’IA come una priorità per mitigare rischi futuristici come l’estinzione a causa di robot malvagi. Queste narrazioni sembrano distogliere l’attenzione dalle questioni legali e etiche urgenti che l’IA pone già oggi. È importante sperare che questo non rappresenti l’unico approccio alla regolamentazione europea dell’IA, ma che vengano intraprese azioni concrete per affrontare le sfide attuali.

L’attenzione sul rischio associato all’intelligenza artificiale spesso si focalizza su scenari fantascientifici, come l’idea di robot malvagi che decidono di annientare l’umanità. Questa visione è riduttiva e distoglie l’attenzione da problemi più concreti e immediati. Tra questi, vi sono lo sfruttamento del lavoro, l’espropriazione di diritti, la perpetuazione delle disuguaglianze, la limitazione delle alternative per i consumatori a causa delle piattaforme chiuse e monopolistiche, e l’assenza di interoperabilità tra sistemi diversi.

Una questione cruciale è la percezione della ‘oggettività’ dei sistemi di ottimizzazione predittiva, che mirano a prevedere le azioni degli individui. È ormai riconosciuto che questi sistemi possono produrre discriminazioni, ma la discussione sulla discriminazione è spesso utilizzata come diversivo. Il problema fondamentale non è solo che questi sistemi producono discriminazioni, ma che spesso non funzionano come dovrebbero. La questione non è solo rendere i sistemi meno discriminatori, ma interrogarsi sulla loro efficacia e sulla loro funzionalità di base.

La discriminazione prodotta dai sistemi IA non è limitata ai gruppi tradizionalmente tutelati dalla legge (come i poveri, le donne, le persone di colore), ma può estendersi a categorie molto più specifiche e arbitrarie, come individui con particolari preferenze o condizioni psicologiche. Questi sistemi operano tramite la correlazione di miliardi di dati e creano ‘gruppetti’ o categorie basate su queste correlazioni. Inevitabilmente, ci saranno individui che non rientrano nei modelli di ‘normalità’ statistica stabiliti da questi sistemi, risultando marginalizzati o discriminati.

In sintesi, mentre l’attenzione si concentra sui rischi futuristici e ipotetici, ci sono problemi reali e attuali che l’intelligenza artificiale sta creando nella società, tra cui la discriminazione e la perpetuazione di disuguaglianze esistenti. Questi problemi richiedono un’analisi critica e soluzioni concrete, piuttosto che essere oscurati da narrazioni distopiche o futuriste.

La problematica è di natura strutturale, non si tratta di un semplice errore correggibile. La comprensione di cosa sia un modello statistico è cruciale. Non è essenziale capire nel dettaglio l’intelligenza artificiale, ma piuttosto riconoscere il problema fondamentale: certe applicazioni dell’IA dovrebbero essere semplicemente proibite. Questo perché, in alcune situazioni, non ha senso valutare i rischi. Ad esempio, l’approccio del Regolamento Europeo sull’IA si basa principalmente sulla valutazione di impatto. Consideriamo la questione della corrispondenza privata: se si decidesse che alle poste chiunque potesse aprire e leggere le mie lettere per vedere se contengono informazioni vendibili, si verrebbe a violare un diritto costituzionale che mi protegge. Se un legislatore propone di fare una valutazione di impatto in questo caso, sarebbe inutile, perché si sta già violando un mio diritto fondamentale. Non importa l’impatto in questo contesto; ciò che conta è la salvaguardia del mio diritto costituzionale. L’etica che dobbiamo rispettare è già definita nella costituzione; non c’è bisogno di cercarla altrove.



Categories: Filosofia, teologia e apologetica, Transumanesimo

Tags: , , , , , , , , , , , , , , , ,

14 replies

  1. Qualora ve lo chiedeste, la risposta è si: ovviamente è stato scritto con l’uso di Chat-GPT pro. Non c’è nulla di meglio di questo “corto circuito” per un articolo simile.

  2. Che dire, da leggere/ascoltare più volte…
    Una delle domande che sovente i non credenti mi fanno è « ma non ti inquieta che ci sia un Dio che ti guarda continuamente? » Non capiscono che Dio è Amore e che anche la Sua Volontà è Amore, perché vuole il nostro bene (che spesso non coincide con ciò che noi crediamo sia il nostro bene, ma Lui sa meglio di noi), quindi non mi « guarda in continuazione » come fosse un impiccione, ma si prende in continuazione cura di me; essere continuamente nello sguardo di Dio non solo è rassicurante ma da senso alla propria vita. Cerco di spiegarlo a queste persone, ma non possono capire perché misurano con il metro umano, senza essere consapevoli che la volontà umana tende sempre (causa peccato originale) a deviare verso volontà di potere, cioè a volere il proprio tornaconto via sopraffazione del’altro. Da questo viene fuori quella rozza diabolica imitazione che è lo sguardo dell’occhio di Sauron o il Palantir, che vediamo ad esempio ad ogni incrocio in forma di telecamera.
    Il discorso della relatrice è importante perché, non solo svela il tutto sommato semplice meccanismo farlocco della cosiddetta IA, ma soprattutto mette in luce i reali obiettivi dei novelli mercanti d’aria che si nascondono dietro questo acronimo: perseguire il proprio tornaconto via sopraffazione dell’altro.
    Noi perseveriamo nel cercare di fare nostra la Sua Volontà.
    Grazie.

  3. Grazie minstrel per aver pubblicato questa relazione.
    Devo prendermi il tempo necessario a leggerla tutta, perché l’argomento è interessante e soprattutto di grande attualità.
    Oggi c’è una grande « euforia » sulle capacita « generative » dell’Ai (o IA) e forse si sottovalutano i rischi. Il problema come per tutte le nuove tecnologie è che quando queste appaiono, sembrano inarrestabili e moralmente neutre – si dice sempre « dipende da come le usi » – ma non è sempre così e non sempre è stato così nella storia.
    Oggi ad esempio il « mostro anti-ecologico » sembra essere quello che è stata una rivoluzione… banalmente l’auto con motore endotermico (piuttosto che le cannucce di plastica).
    Ancora non conosciamo o riconosciamo i risvolti negativi di una gioventù sempre iper-connessa a devices e social (che utilizzo molto, non sono un « torniamo nelle grotte »).
    Vedremo… ma vedere e comprendere sono cose diverse.

  4. Carissimo Minstrel,

    Prima di tutto ti ringrazio per aver condiviso questa magnifica conferenza del prof. Daniela Tafani sull’IA e il contesto mercantile che la circonda.

    Se ho impiegato un po’ di tempo per commentare, è perché ero indeciso sulla forma da dare al mio commento.

    Le problematiche che il tuo articolo solleva sul piano epistemico sono alquanto complesse e, probabilmente, non abbiamo tutti gli strumenti necessari per affrontarle adeguatamente qui: al massimo possiamo fare delle constatazioni.

    La distinzione tra IA simbolica e IA statistica è molto interessante, ma solleva comunque questioni di natura diversa. In ogni caso, un programma informatico, qualunque esso sia, non è che una successione di potenziali elettrici bassi e alti tra i 2 e i 6 V, secondo le tecnologie utilizzate nei circuiti integrati, che vengono simbolicamente designate con un segno 1 oppure 0. Le loro successioni più o meno lunghe sono raggruppate simbolicamente in numeri esadecimali da 0 a F, che a loro volta vengono identificati in base al contesto come numeri, dati, operazioni da eseguire rappresentati da altri simboli, che possono essere portati a simbologie più facili da manipolare per gli esseri umani e così via. E questo vale anche per i linguaggi che programmano i database e gli algoritmi concretamente utilizzati dalle cosiddette IA. Il fatto di avere un approccio statistico invece che simbolico delle informazioni è quindi puramente una decisione contestuale del programmatore e non cambia niente quanto all’essenza di ciò che un’IA è in quanto tale.

    Sui vantaggi di un approccio statistico di certi problemi particolari in precisi contesti epistemici non c’è nulla da ridire e questo è spiegato in modo magistrale nella conferenza.

    Lì dove non concordo è circa l’affermazione che il problema del non funzionamento di questi prodotti come uno vorrebbe aspettarsi risieda nella difficoltà di distinguere tra correlazioni causali e spurie nei dati: il trattamento statistico non impedisce in modo alcuno di mettere, statisticamente, in risalto relazioni causali e distinguerle da altre che sarebbero solamente casuali.

    Ad esempio, la Granger’s Causality (GC) e la sua generalizzazione, la misura della “Transfer Entropy” (TE) dei dati statistici osservabili, sono due nozioni di “causalità” statistica che possono essere utilizzate per individuare relazioni causali tra insiemi di dati. L’idea centrale della GC è che l’insieme di dati X causa l’insieme di dati Y se X contiene informazioni che aiutano a prevedere lo sviluppo di dati ancora non constatati di Y meglio delle informazioni già constatate di Y. Solitamente si applica la GC su una serie di dati che si succedono nel tempo al fine di dare previsioni di sviluppi futuri, ma la forza concettuale di GC è che si può benissimo applicare a degli insiemi già esistenti di cui si potrebbero individuare schemi più significativi. In linea di principio, si potrebbe anche dimostrare cause finali X che spiegherebbero cause prime Y, il tutto, semplicemente statisticamente, non simbolicamente, visto che nulla è detto circa la caratterizzazione temporale, o altra, che definirebbe l’insieme X.

    Il tutto, poi, può essere generalizzato con concetti legati alla TE e cioè ai flussi di entropia di dati, i quali, neppure loro a ben guardare, son per forza, in tale contesto, obbligati ad intervenire in un contesto temporale.

    L’IA statistica è uno strumento potente, ma comunque rimane quel che abbiamo sempre detto su questo blog e cioè non ha i mezzi di dare contesto alla serie di voltaggi 1 e 0 che consta nei suoi circuiti elettronici e, ancor meno, di “darsi” contesto e, quindi, le tre fallacie, descritte dal professore davvero sono fallacie.

    In Pace

    • Volevo chiedere l’ultima cosa:
      Secondo voi se, il fatto stesso dell’esistenza di blog, chat, guestbook, forum e poi quindi i social, tralasciando la scontata profilazione finanziaria ed il controllo politico, non possa esser servita per poter allenare la RA ( ossia la razionalità artificiale detta IA ) soprattutto a livello di simulazione di capacità emozionale e relativa riconoscibilità e catagolazione.
      Nuovamente, in Cristo, Davide

      • “Capacità emozionale” è una parola grossa anche se di tipo “emulativo”.

        Lasciamo stare RA che se ognuno la chiama come gli pare alla fine poco ci si intende, detto questo è certo che tutto concorre ad accrescere le capacità emulative-generative (anche sul “creative” per l’esperienza che sto facendo sulla generazione delle immagini ho delle riserve) di ogni forma di Ai.

        Però non demonizziamo tutto, perché le grandi capacità di calcolo ma soprattutto di confronto dei dati acquisiti nel campo della ricerca (sanitaria-chimica-biologica in generale scientifica) può portare a grandi benefici, fermo restando l’uso che verrà fatto di ogni evoluzione scientifica, che nell’Ai trova solo una forte accelerazione dello sviluppo.

      • Nessuno ha in mano il “pacchetto completo” che è stato utilizzato per il training delle IA, ed è proprio lì il punto cardine.
        Una cosa è certa: la statistica si basa sull’ampiezza e sull’attendibilità del campione. Stando a quel che dice la Tafani qui (e al di là dei chiarimenti che Simon ha redatto, che andrebbero valutati), non c’è molta possibilità di chiarire la qualità di un campione scelto per la AI, pertanto i risultati saranno certamente usciti dopo che è stato dato in pasto alla AI un campione amplissimo, non dico tutto il web compreso il dark web, ma ho la sensazione che una ampia fetta di quello “free” (blog e social compresi) sarà stata contemplata.

        • Personalmente non vedo proprio nessun problema etico con questo fatto.
          Dopotutto, tutto quel che è pubblico è … pubblico, per l’appunto.
          E quando utilizzo un IA voglio che sia, idealmente, la più accurata possibile e cioè con una base dati la più larga possibile.
          Il problema etico è al livello dell’uso degli algoritmi, cioè il processo tra prompt e risultato ottenuto, in quanto esimio luogo di tutte le manipolazioni.
          In Pace

        • Il problema è che oggi – e già si stanno avviando cause in tal senso – molta della “formazione” dei sistemi Ai, soprattutto quelli dedicati alla creazione di contenuti “testuali”, ha fatto e fa “razzia” di contenuti che per quanto “pubblici” a livello di accesso, sono e rimangono coperti e legalmente protetti da copyright.

          Fuori da tecnicismi, contenuti che il singolo può leggere, ma che non può riutilizzare in alcun modo – parziale o totale – per farne altro uso, anche ad esempio – e siamo nella fattispecie – per un uso “didattico”.

          • La nozione di monetizzare un’idea, un concetto, la nozione di copyright o di patente, è alquanto moderna. Non sono sicuro che sia una nozione davvero etica quanto piuttosto un’invenzione legale in uno specifico contesto societale. Avere idee, molti lo possono fare: realizzarle molto pochi. Da questa scarsità di realizzazione possiamo educere una vera nozione di valore. Ma non prima che sia realizzata. E solo a questo punto posso intravvedere una colorazione morale, non davvero prima. La morale, in fin dei conti risponde ad una sola domanda: cosa ci porta alla felicità. Se un’azione non intacca alla felicità ( eudaimonia) è amorale, se la intacca negativamente è immorale, se positivamente è morale.
            In Pace

            • È alquanto moderna, ma se la legge mi dice che un « qualcosa » appartiene ad altri e non a me, non è né lecito, né morale che io me ne appropri (salvo tutta una serie di casistiche attenuanti o in deroga che non è certo il caso di analizzare qui).
              Tanti sono i beni non materiali che rientrano in un concetto di proprietà o anche « paternità di opera » che rientrano tra quelli tutelati o tutelabili, non possiamo derogare da questo per entrare in un filosofico, discutibile, soggettivistico metro di « felicità », intaccata o meno.

              • Conosco il tuo punto vista e la sua giustificazione, intendiamoci.
                La mia riflessione sorge piuttosto dalla constatazione che quando condivido una mia idea o conoscenza, un’altra persona la acquisisce senza che io la perda: quindi la felicità che sperimento dalla possessione di quest’idea non è diminuita dal fatto che un’altro la possa possedere. In fin dei conti non c’è scarsità.
                In Pace

                • La devi chiamare razionalità artificiale e meccanica, giacché non ha nulla di intelligente per natura e definizione.
                  Ad ogni modo non per demonizzare.
                  Ringrazio Minstrel che probabilmente ha compreso dove volessi andare a parare.
                  Ad ogni modo la domanda ab origine rimane su quanto sangue si è basato tutto questo sviluppo ( indipendentemente dalla non imputabilità della cooperazione, ad esempio, con l’usura, aventi un conto in banca ) e su quanto sia realmente conveniente.
                  I grandi progressi, in realtà, ai fini di quel per cui mi pare si incentivi la RA, sono molliche rispetto al tozzo di pane.
                  p.s. la felicità senza il Favore divino è irragiungibile. In terra ogni tipo di etica umana può portare solo a serenità e pace, al massimo, con grande sforzo in ogni caso.
                  Non si può essere felici senza DIO e , per definizione, fintanto che non si risorge pienamente ed attualmente.

                • Il miglior nome della IA non è RA ma IA, cioè Ignoranza Artificiale (copyright di Minstrel in nostre conversazioni private).
                  In Pace

Rispondi

Scopri di più da Croce-Via

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading