“Intelligenza” Artificiale: primi passi per un approfondimento in fieri

Prendo spunto dall’ottimo articolo di Simon intitolato “Checos’èità” dedicato all’intelligenza artificiale, per tentare di avviare un vero e proprio approfondimento della materia secondo le prerogative che ci sono proprie (e quindi sono proprie del blog): con curiosità, indagare sotto uno sguardo tomista e con il pensiero al Magistero Cattolico.

Per farlo ho cercato nel blog del filosofo Feser per capire se avesse scritto qualcosa al riguardo. Finora si è astenuto, a mio avviso ottima scelta, probabilmente perché vorrà comprendere meglio il fenomeno e soprattutto quella che appare essere la novità di ingegneria informatica presente nelle nuove AI uscite in questi mesi, la cosiddetta “rete neurale”. Ho reperito soltanto una recensione scritta di suo pugno nel 2019 del libro “The AI Delusion” di Gary Smith uscito nel medesimo anno. Ignoro se tale contributo possa aver tenuto conto di tutti i progressi finora avvenuti nelle IA, ma ho trovato lo scritto di Feser eccellente per una introduzione alla questione di cosa sia (o era…) l’intelligenza artificiale, quali siano i suoi limiti intriseci rispetto a quello che è la conoscenza umana e quali siano i pericoli.

Il web è pieno di video che vanno dall’apocalittico al divertente su questi argomenti, e ne avremo occasione di parlarne. Per ora offro una traduzione rapida della recensione reperibile qui, vedremo nei commenti se sarà possibile avviare una possibile disputa che sbrogli al meglio la matassa che ora appare intricata.

Secondo l’autore del libro recensito da Feser, il vero pericolo è che l’IA non faccia altro che amplificare gli errori che tutti noi commettiamo a causa di presupposti filosofici errati, ad esempio dando alla scienza il potere di Verità (come nel caso delle questioni vaccinali o della fede legata a ciò che racconta la storia…), oppure vedendo relazioni tra dati dove è impossibile o irrazionale che ci siano. Mi sembra un ottimo contributo introduttivo, anche perché è stato scritto prima dell’euforia attuale. Partiamo da qui!

Se me ve lo state chiedendo: si, mi ha aiutato chat gpt a scrivere velocemente la traduzione, ma una correzione è stata doverosa. Per ora…


Pseudoscienza informatica
Un nuovo libro suggerisce che il vero pericolo dell’intelligenza artificiale sarà che resterà più stupida di noi.

di Edward Feser

L’intelligenza artificiale potrebbe rivelarsi più pericolosa man mano che avanza, ma non genererà mai un’intelligenza reale fintanto che le premesse di base del settore rimangono invariate. In “The AI Delusion”, Gary Smith rivela il perché e valuta i problemi della tecnologia da una prospettiva economica.

Il problema fondamentale dell’IA riguarda il modo in cui i computer elaborano i simboli, dalle serie di lettere inglesi digitate su una tastiera ai codici binari formati da 0 e 1 in cui tali lettere vengono codificate. Il significato di questi simboli, anzi, persino il fatto che siano simboli, non è qualcosa che il computer conosce. Un computer non comprende ciò che elabora tanto quanto un regolo calcolatore comprende i numeri e le linee scritte sulla sua superficie. È l’utente di un regolo calcolatore che effettua i calcoli, non lo strumento stesso. Allo stesso modo, sono i progettisti e gli utenti di un computer che comprendono i simboli che elabora. L’intelligenza risiede in loro, non nella macchina.

Come osserva Smith, un computer può essere programmato per rilevare istanze della parola “tradimento” in testi scansionati, ma non possiede il concetto di tradimento. Pertanto, se un computer scansiona una storia di tradimento che non usa effettivamente la parola “tradimento”, non riuscirà a individuare il tema della storia. E se scansiona un testo che contiene la parola, ma senza utilizzare il concetto di tradimento, il computer classificherà erroneamente il testo come una storia di tradimento. A causa della correlazione approssimativa che esiste tra i contesti in cui appare la parola “tradimento” e i contesti in cui viene impiegato il concetto, il computer simulerà vagamente il comportamento di qualcuno che comprende la parola, ma, secondo Smith, supporre che una tale simulazione equivalga a una vera intelligenza è come supporre che arrampicarsi su un albero equivalga a volare.

Analogamente, il software di riconoscimento delle immagini è sensibile ai dettagli fini di colori, forme e altre caratteristiche che ricorrono in grandi campioni di foto di oggetti vari: volti, animali, veicoli e così via. Tuttavia, non vede mai qualcosa come un volto, ad esempio, perché non possiede il concetto di volto. Registra semplicemente la presenza o l’assenza di determinati elementi statisticamente comuni. Tale elaborazione produce risultati bizzarri, dall’identificazione errata di un uomo solo perché indossa occhiali di un colore insolito all’identificazione di una semplice serie di linee nere e gialle come un autobus scolastico.

Sarebbe fuorviante suggerire che ulteriori perfezionamenti del software possano eliminare tali anomalie, perché le anomalie dimostrano che il software non sta facendo lo stesso tipo di cosa che facciamo noi quando percepiamo gli oggetti. Il software non coglie un’immagine nel suo complesso o ne concepisce l’oggetto, ma risponde semplicemente a determinate disposizioni di pixel. Un essere umano, al contrario, percepisce un’immagine come un volto, anche quando non riesce a distinguere singoli pixel. La sensibilità alle disposizioni dei pixel non equivale alla percezione visiva, così come rilevare la parola “tradimento” non equivale a possedere il concetto di tradimento.

Le implicazioni delle lacune dell’IA, come dimostra Smith, non sono solo di natura filosofica. La mancata comprensione di come i computer manipolino solo simboli senza comprenderli può avere serie conseguenze economiche, mediche e pratiche. La maggior parte degli esempi riguarda l’analisi dei dati, ovvero l’esame approfondito di vasti corpi di informazioni per individuare tendenze, modelli e correlazioni. La velocità dei computer moderni facilita enormemente questa pratica. Tuttavia, come sostiene Smith, le conclusioni che ne derivano sono spesso fallaci, e il prestigio che i computer hanno conferito all’analisi dei dati rende solo più facile commettere tali errori logici.

In qualsiasi enorme corpo di dati, molte correlazioni statistiche esistono per pura coincidenza e non meritano attenzione speciale. Ad esempio, potrebbe esistere una correlazione tra le variazioni di temperatura in una città australiana oscura e le variazioni di prezzo nel mercato azionario statunitense. Una persona saprebbe che i due eventi non hanno alcuna connessione. Gli esseri umani, a differenza dei computer, possono concepire i fenomeni in questione e giudicare, dati la natura dei modelli meteorologici australiani e dei prezzi delle azioni statunitensi, che non esiste un collegamento causale plausibile. Tuttavia, poiché un computer elabora solo simboli senza possedere i concetti ad essi associati, non può farlo. Di conseguenza, non può distinguere le correlazioni fasulle da quelle significative.

Se il risultato dell’applicazione di un algoritmo di analisi dei dati è tanto assurdo quanto questo esempio, qualsiasi ricercatore umano saprebbe di scartarlo, ma molti risultati meno assurdi riflettono comunque una coincidenza piuttosto che una connessione causale autentica. Esaminando un database medico, ad esempio, potrebbe emergere una correlazione statistica tra un certo trattamento e il recupero. L’analisi dei dati economici è destinata a rivelare correlazioni tra diverse variabili economiche. La maggior parte di queste correlazioni sarà anche solo casuale, ma i ricercatori spesso si lasciano facilmente impressionare dalle dimensioni del corpo dei dati e dalla potenza di calcolo che ha prodotto il risultato. Spesso vengono ingannati mentre si affrettano a scoprire e pubblicare risultati interessanti. Questa dipendenza dall’analisi dei dati computerizzata è precisamente il motivo per cui i risultati di così tanti studi scientifici si rivelano non ripetibili e molti consigli di investimento si rivelano sbagliati.

Nonostante la natura tecnica del suo argomento, “The AI Delusion” accumula esempi in modo chiaro e accessibile. Smith dimostra che il vero pericolo rappresentato dalla cosiddetta intelligenza artificiale non è che le macchine potrebbero diventare più intelligenti di noi, ma che rimarranno sempre infinitamente meno intelligenti.



Categories: Filosofia, teologia e apologetica, Transumanesimo

Tags: , , , , , , ,

3 replies

  1. Il problema è già nel nome.
    È talmente evidente che la materia inanimata (qual è un computer) non potrà mai avere pensiero, conoscenza o intelligenza.
    L’ I.A. non penso abbia qualche problema intrinseco. Il problema intrinseco lo ha l’essere umano quando vede ciò che non esiste e ne fa derivare tutta una serie di decisioni e giudizi. Ho sentito perfino affermare, da persone consapevoli che ad esempio chatgpt è un semplice T9 evoluto, che al momento l’I.A. non è ancora intelligente ma “non sappiamo se lo sarà in futuro”… Bah

  2. Alla fine del corso di algebra di bool, il professore ci dava il compito di trasformare alcune frasi riportanti determinati problematiche in espressioni algebriche booleane, di semplificarle e di stabilire quale numero minimo di circuiti era necessario per la soluzione della problematica: questo per dire che l’intelligenza artificiale non è autonoma, ma porta l’impronta indelebile di chi la progetta.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: