Complessità e Informazione: una riflessione aristotelica -1

watch-innards-00

Spesso capita nelle discussioni sul web dover riferirsi a nozioni valide in campi diversi aventi, eppure, un ceppo comune che sostiene le varie analogie. Purtroppo queste nozioni e le loro interazioni, benché presentite, spesso non sono conosciute in profondità e quindi usate solo in senso lato, perdendo così parte della loro cogenza oppure proprio il loro significato.

Abbiamo l’intenzione, e l’ambizione, di illustrare ai nostri lettori un ceppo comune alla termodinamica, alla teoria dell’informazione, all’evoluzionismo, alla filosofia dell’essere, alla meccanica quantistica e alla logica, il tutto senza mai usare di una sola formula matematica e nell’ottica di approfondire e, a volte, di aprire nuove vie di comprensione del reale.

La Domanda Fondamentale alla quale vogliamo rispondere lungo questi prossimi posts è la seguente: se un sistema ambientale che contiene certe strutture evolve spontaneamente, cioè senza intervento esterno, in una direzione dove ci sono strutture più complesse, abbiamo un nuovo sistema che contiene più o meno informazioni di quello precedente?

La domanda posta così può sembrare astrusa, eppure è il nocciolo della questione sia quando guardiamo sistemi quantistici che vedono ridursi la loro funzione d’onda, sia quando paragoniamo la complessità di un animale a quello di una batteria: c’è davvero stata creazione di nuova informazione nella sistema evoluto? In modo similare la stessa questione è applicabile anche in campo economico: un prodotto sofisticato contiene più o meno informazione che l’ambiente che lo ha prodotto, a cosa si riferisce dunque questa nozione di valore aggiunto?

La risposta circostanziata a questa Domanda Fondamentale condurrà a constatazioni che aiuteranno, naturalmente, a riflettere più oltre circa il significato che hanno, dal punto di vista dell’informazione, l’inizio dell’universo, l’abiogenesi, il salto da una specie all’altra, l’apparizione dell’uomo, il punto di convergenza dell’Intelligenza Artificiale previsto tra una trentina di anni e, dunque, ci fornirà utensili preziosi per una riflessione epistemologica rigorosa su tutte queste problematiche.

Procederemo secondo le tappe seguenti:

  1. Introdurremo la nozione di sistema fisico perfettamente casuale e mostreremo come esso non contenga nessuna informazione, anche illustrando casi dove “sembrerebbe” che ci sia informazione contenuta in un tale sistema
  2. Descriveremo poi, con un esempio facilissimo da capire, il passaggio da una struttura disordinata ad una struttura complessa osservandola sotto gli aspetti di percorsi possibili e di evoluzione dell’informazione introducendo così una prima nozione di neghentropia
  3. Descriveremo poi l’importanza del ruolo che gioca il concetto di entropia in vari campi scientifici non per forza direttamente legati alla fisica
  4. Stabiliremo il legame analogico tra i concetti di atto/potenza e la descrizione della realtà conosciuta dalle scienze (popperiane)
  5. Metteremo in evidenza la struttura logica che rilega tutti questi aspetti del reale e le varie angolature epistemiche
  6. Risponderemo alla Domanda Fondamentale di cui sopra, come anche ai lemmi che se ne deducono in vari campi cognitivi.

1. Sistemi Fisici Puramente Casuali

La Gaussiana

Per cominciare, penso possa essere interessante per tutti ricordarsi il perché parliamo sempre di distribuzioni statistiche gaussiane quando ci riferiamo a insiemi puramente casuali: il fatto che la curva sia in campana farebbe piuttosto pensare che quell’aggregarsi di ricorrenze intorno al punto più alto di quella curva dimostri invece che ci sia dell’informazione sottostante.

Per illustrare questa fallacia, prendiamo una moneta e giochiamo a testa (valore 0) o croce (valore 1): se la moneta in questione è perfettamente equilibrata tra le due facce allora ben vediamo che tirandola in aria solo due occorrenze sono possibili cioè sia 0 che 1, e che la frequenza di ottenere l’ 1 è del 50% e quella del ottenere 0 anche 50%. Se creiamo un grafico sull’ascisse del quale mettiamo i valori totali e lungo l’ordinata la percentuale del numero di occorrenze allora avremmo un segmento che è a quota 50% in ordinata e che va dallo 0 all’1 in ascisse. Se ci dovesse essere un disequilibrio tra le due facce, allora la percentuale potrebbe, ad esempio, essere del 60% per il valore 1 e del 40% per il valore 0 e sul grafico ciò risulterebbe in un segmento obliquo che partirebbe dal punto 0 in ascisse e 40% in ordinata su al punto 1 in ascisse e 60% in ordinata: in questo caso, l’angolo misurato con il grafico rappresentante una distribuzione perfettamente casuale indicherebbe il grado di non perfetta casualità. Chiaramente se la frequenza fosse 0% per l’apparire della testa e di 100% per la croce ciò significherebbe che il sistema è distorto e che c’è una ragione sottostante che impedisce/favorisce l’apparire dello 0/1: il sistema non è più casuale, ma comporta un’informazione fisica sottostante che ne distorce i risultati attesi.

Consideriamo adesso un sistema con due monete ognuna delle quali aventi un lato 1 ed uno 0. Le possibilità qui sono quattro quando lanciate in aria e ricadenti: (0,0), (1,0), (0,1),(1,1).

La somma dei risultati per ognuna di queste configurazioni è quindi 0+0=0, 1+0=1, 0+1=1, 1+1=2. Ovviamente la frequenza di occorenze per una somma uguale a 0 è quindi di 25% ( capita una sola volta su quattro), di ottenere una somma 1 è di 50% ( capita in due casi su quattro) e di ottenere la somma 2 è di nuovo di 25% ( una sola volta quando le due monete presentano 1 entrambi). Anche qui se vogliamo rappresentare sullo stesso grafico che quello precedente avremmo l’apparire come di un tetto composto da due segmenti, uno che va dal valore 0 in ascisse e 25% in ordinata, al valore 1 in ascisse a 50% in ordinata e il secondo da questo ultimo punti al valore 2 in ascisse e 25% in ordinata.  Anche qui, questa distribuzione delle frequenze nell’apparire delle somme indica l’assoluta mancanza di correlazione tra le due monete e del perfetto equilibrio tra la due faccie di ogni moneta. Il sistema è perfettamente casuale e i risultati non dipendono in alcun modo dal sistema considerato sottostante e non ci danno nessun modo di conoscere e di presumere nessuna informazione supplementare. A contrario, una deviazione da questa distribuzione delle frequenze potrebbe indicare la possibilità che le due monete siano legate da un filo o saldate tra di loro o disequilibrate in un modo qualunque: tale deviazione sarebbe informazione sullo stato del sistema quindi non più perfettamente casuale.

Continuiamo con tre monete alle stesse condizioni che precedentemente: avremo otto possibili occorrenze (0,0,0), (0,0,1), (0,1,0), (0,1,1), (1,0,0), (1,0,1), (1,1,0), (1,1,1) ognuna con una probabilità di 100%/8 = 12.5% di accadere. Le somme saranno per ogni caso 0, 1, 1, 2, 1, 2, 2,3, cioè ci saranno 12.5% di probabilità di avere una somma 0, 3×12.5%=37.5% di probabilità di avere una somma 1, 37.5% di probabilità di avere una somma 2 e di nuovo 12.5% probabilità di avere una somma uguale a 3. Tale distribuzione riportata sul nostro grafico indica quindi il comportamento di un sistema di tre monete assolutamente casuale, non correlate tra di loro e perfettamente equilibrate e una deviazione da tale distribuzione indicherebbe invece l’esistenza di processi soggiacenti tra le tre monete che ne inficerebbero la pura casualità.

Se prendiamo il caso di quattro monete o più vedremmo allora l’apparire del grafico seguente dove ben vediamo formarsi con l’aumentare del numero di monete lanciate in aria la famosa curva a campana alla quale tutti si riferiscono.

Gaussian

Questa curva in campana, la famosa “Gaussiana”, è quindi la rappresentazione delle ricorrenze di un sistema perfettamente casuale , i cui elementi non comunicano tra di loro, perfettamente equilibrati nelle loro possibilità di scelta e sottomessi allo stesso modo alle stesse leggi della fisica. Quando una tale curva a campana appare, allora non si può dedurre o riscontrare nessuna informazione circa il sistema sottostante. Quel che è interessante è quindi,sempre, di cercare se vi sono deviazioni da questa struttura a campana perché queste sono segni che l’informazione sottostante influenza il risultato osservato in modo significativo.

 

Come misurare la superficie di un lago sparando col cannone

Consideriamo adesso un campo di 20 x 20 chilometri e supponiamo che ci siano in questo campo uno o più laghetti di varie forme e che desideriamo misurare la superficie acquosa totale di questo terreno. Per farlo spareremo al cannone in direzione e gittata totalmente aleatorie tra due tiri di cannoni in questo campo e ogni volta che vedremo un getto d’acqua marcheremo un segno 1 sul nostro foglio di carta mentre ogni volta che non vedremo niente segneremo uno zero. La situazione qui è simile a quello della moneta che si lancia in aria: la moneta è il terreno stesso che può dare un getto d’acqua ogni volta che è lanciata in aria e in questo caso che è cannonata. Se il terreno fosse composto a metà di laghetti allora la distribuzione di 1 e di zero sarebbe equilibrata 50%/50% e ne dedurremmo che ci sono 200 kmq di laghetti, se il risultato è differente allora il rapporto tra laghetti e superficie ferma lo sarà di altrettanto.

Montecarlo

La precisione con la quale di conosce la superficie dei laghetti sarà però sempre in relazione con il numero di cannonate aleatorie sparate: se spariamo 400 cannonate allora abbiamo una precisione di 1 kmq cioè del 0.25% della superficie totale del terreno , se abbiamo sparato solo 40 cannonate avremo allora la precisione sarà di 10 kmq cioè del 2.5%, ma se vogliamo misurare la superficie dei laghetti con una precisione dell’ordine del m2, cioè dello 0,00025% allora sarà necessario sparare 400’000 cannonate. La precisione è quindi direttamente in relazione con il numero di cannonate effettuate: è quel che si chiama errore statistico ed è valido solo se il sistema considerato, in questo caso il metodo perfettamente aleatorio del tiro al cannone, è davvero prettamente casuale e non sono presenti elementi sistematici di distorsione sottostanti. Questo metodo è utilizzato quando si vogliono calcolare soluzioni di equazioni troppo  complesse (il terreno) per essere risolte analiticamente richiedendo al computer di calcolare aleatoriamente i valori (sparare cannonate) in vari punti per ricercare, ad esempio, un massimo o un minimo di una funzione data  e non a caso è chiamato metodo “Montecarlo”. Ovviamente se i valori generati non lo sono in modo perfettamente aleatorio, cioè casuale, allora il metodo stesso non è statisticamente valido.

Un’illusione ottica epistemica

Da un sistema al quale si pone una domanda (ad esempio quale sia la somma di teste e croci che si otterranno ad ogni lancio di monete in aria) e la cui risposta è perfettamente descritta dalla gaussiana su-menzionata non si ricava proprio nessuna informazione circa dinamiche particolari sottostanti a parte il fatto che non ce ne sono: un sistema che non possiede informazione non può creare informazione di per virtù propria. Si potranno tirare in aria quante monete si desiderano un numero tanto grande quanto vogliamo, mai si riuscirà a ricavare un risultato che esprimerebbe una deviazione dall gaussiana e quindi l’apparire di “informazione” circa il sistema sottostante. Eppure si possono essere situazioni paradossali che potrebbero far credere che ciò sia possibile.

Descriverò qui uno di questi paradossi dal puzzle di Pradeep Mutalik apparso su Quanta Magazine il 22 luglio di quest’anno intitolato appunto “Information from Randomness?” (Informazione da casualità?) e riscontrabile qui per chi sarebbe interessato ad approfondire il soggetto in diretta.

Tesi: Ecco come il problema si pone:  supponiamo che si scrivano in modo completamente casuale due numeri su due pezzi di carta chiamati A e B ma i cui valori vi sono tenuti nascosti. Quale di A o di B avrà il valore il più alto? Si ha la possibilità di dare (a) una risposta a scelta fin dall’inizio, oppure (b) prima di dare una risposta definitiva si ha anche il diritto di guardare, all’inizio, una delle due carte eppoi decidere se questa questa presenta il numero il più grande oppure se questi è iscritto sulla carta che non è stata ancora scoperta.

Chiaramente, sia usando della strategia (a) sia della strategia (b) la probabilità di indovinare a caso quale sia la carta con il valore il più grande sembra, a prima vista, sempre uguale a 50%, visto che il sistema per la generazione dei due valori è perfettamente casuale.

Antitesi: Eppure, con la strategia (b), esiste una tattica che darebbe una percentuale superiore al 50% di scegliere il numero più grande e ciò indipendentemente dai numeri che posso aver scritto all’inizio (Thomas M. Cover, “Pick the Largest Number,” in Open Problems in Communication and Computation, ed. Thomas M. Cover and B. Gopinath  [New York: Springer, 1987], 152)

Ecco la descrizione di tale tattica : applicando la strategia (b), dopo aver tirato a caso la prima carta, si immagina completamente a caso ed indipendentemente dal risultato di A un qualunque numero G dal quale, in seguito, si potranno considerare a priori le tre possibili situazioni seguenti:

Situazione 1:Situazione 1

Sia G è più piccolo di A e B  e la carta estratta in (b) può essere sia A che B, allora il meglio è di scegliere la carta estratta. Infatti la probabilità che quella estratta sia più grande di quella ancora nascosta è sempre e solo del 50%

Situazione 2:Situazione 2

Sia G è più grande di A e B e la carta estratta in (b) può essere sia A che B allora il meglio è scegliere la carta ancora nascosta. Infatti poiché la probabilità di avere A o B durante (b) è la stessa, scegliendo la carta che non è stata estratta per ottenere B è ancora una volta del 50%.

Situazione 3:Situazione 3

G si ritrova tra A e B e scoprendo (b) la probabilità di avere sia A che B è ancora del 50%, ma è qui che si possono cambiare le statistiche a proprio favore.

Se scoprendo la prima carta si ottiene un numero più piccolo che quello immaginario e completamente aleatorio di G allora bisogna scegliere la carta ancora nascosta, mentre se si scopre un numero più grande di G allora bisogna scegliere proprio questo: in questo caso la probabilità di scegliere il numero giusto è del 100%.

La probabilità finale di scegliere il numero giusto è quindi la somma ponderata delle tre situazioni 1, 2 e 3 ed è chiaro che la probabilità di scegliere giusto sarà aumentata rispetto al mero 50% quanto più la probabilità che la situazione 3 possa realizzarsi sarà alta: saremmo così riusciti ad estrarre informazione dal sistema puramente casuale ( e quindi senza informazione)  A e B che ci permetterebbe di aumentare la probabilità di vincere aldilà del 50%?

Sintesi: In realtà, come ben spiegato nell’articolo su citato, questo è solo un’illusione ottica epistemica: è perché si è convinti che giocare secondo la strategia (a) o secondo la strategia (b) sia equivalente statisticamente parlando. Il che è vero solo se si potesse giocare solo una volta, perchè è impossibile che la probabilità di fare la giusta scelta sia superiore al 50%.

Però, seguendo la strategia (b), in realtà si gioca due volte, il che permette di modificare un’eventuale prima scelta: giocando due volte la probabilità in realtà sale tra il 50% ed il 75%  e questo indipendentemente dalla scelta fatta di G proprio a causa della distribuzione perfettamente uniforme della distribuzione casuale.

Quindi no, da un punto di vista epistemico le due partite sono differenti, nel primo caso (a) si pone solo un tipo di domanda (è A più grande di B, A e B sconosciuti?) , mentre nel secondo caso (b) si pongono due tipi di domande a due sistemi differenti: (primo tipo) quanto vale la prima estrazione in un sistema dove A e B sono sconosciuti? Ed è (secondo tipo) la carta che ho in mano, e di cui conosco il valore, più grande o più piccola di quella ancora sconosciuta in funzione dell’insieme concreto di valori possibili dal quale la posso estrarre (e che , quindi, metodologicamente paragono ad una terza carta ideale assolutamente aleatoria e la cui probabilità di avere un valore tra la carta conosciuta e quella sconosciuta sarà quindi dipendente dall’insieme di numeri possibili concreti dal quale si estraggono A e B)?

Lascio l’ultima parola a Pradeep Mutalik: “ So the answer to the title question of the original column, “Can information rise from randomness?” is an emphatic “no,” as suspected. Randomness, by definition, can never give you specific directional information.”

In Pace

(Continua)

Annunci


Categorie:Filosofia, teologia e apologetica

Tag:, , , , , , , , , , , , , , , ,

2 replies

  1. Parli come un Basti stampato… Non vedo l’ora di leggere il resto.

    Piace a 2 people

  2. Accidenti. Tornare da tre giorni di tour teatrale in mezza Italia, stanco ma soddisfatto, recuperare questo articolo osservato di sfuggita mentre si prova nel pomeriggio cercando di comprenderlo mentre si attende la pizza in arrivo dall’asporto… non ha prezzo! Per tutto il resto c’è… chiedere all’autore alcuni chiarimenti!
    Grazie Simon, meraviglioso!

    Mi piace

%d blogger hanno fatto clic su Mi Piace per questo: