Complessità e Informazione: una riflessione aristotelica – 3

GRANDE_COMPLICATION_BACK_th

3 – La lenta morte dell’informazione: esempio evoluzionistico

Riflessioni preliminari

Nel secondo capitolo della nostra serie “Complessità e Informazione: una riflessione aristotelica”  abbiamo illustrato come una struttura più complessa in realtà comporta una diminuzione dell’informazione disponibile e utilizzabile del sistema del quale fa parte.

Oggi vorremmo illustrare concretamente questo concetto applicandolo a quel capitolo della ricerca scientifica che è l’Evoluzione Sperimentale che è quel campo della ricerca che studia l’evoluzione di popolazioni biotiche lungo molte generazioni usando di condizioni definite e sempre riproducibili permettendo così esperienze controllate: chi può essere interessato tra i nostri utenti potrà seguire da vicino il  Network for Experimental Research on Evolution (NERE). Per noi, questo è l’approccio scientifico per eccellenza riguardo l’evoluzionismo in quanto è il solo metodo che permette di sormontare la via senza uscita che costituisce il discorso (neo-) darwinista con le sue favole a-scientifiche basate sul concetto di pura casualità: il fatto di poter proporre esperienze che in identiche condizioni diano sempre lo stesso risultato è la dimostrazione stessa che il processo evolutivo (micro evolutivo per ora) è perfettamente causale.

Se vi ricordate quanto esposto nel nostro primo capitolo circa il come poter misurare la superficie di un lago tirando al cannone aleatoriamente usando di un metodo chiamato Montecarlo per ovvie ragioni, allora potete notare quanto il risultato finale, cioè il rapporto tra spari con tuffi d’acqua e il totale delle cannonate effettive non sia per niente casuale ma proprio dipendente dalla fisica sottostante e cioè il rapporto tra la superficie dei laghetti e la superficie totale del campo: quel che cambia è che con il numero di cannonate aumenta la precisione del ratio esso sempre predeterminato. Un sistema fisico che fosse casuale vedrebbe il ratio tra le superfici lacustri e la terraferma cambiare in modo aleatorio e un tiro al cannone dato avrebbe una probabilità di generare un tuffo d’acqua che, in realtà, non darebbe nessuna informazione sul sistema fisico stesso e ciò in piena conformità con il fatto  che questi, per via della la sua pura casualità, non conterrebbe nessuna informazione, per l’appunto.

L’approccio sperimentale evolutivo ci conforta invece nelle nostre ipotesi di base e cioè che il processo evolutivo in quanto tale esprime informazione sottostante e evidenzia dinamiche che saranno sempre le stesse statisticamente parlando, il rapporto tra il passaggio da uno stato dell’evoluzione al seguente essendo già determinato dalle leggi della natura che non cambiano e sono implicitamente già tutte contenute nel sistema iniziale, esattamente come il ratio tra superficie lacustre e superficie totale del campo è già predeterminato. I tentativi biochimici sono quindi come tante cannonate il cui risultato positivo, se possibile, è già iscritto nel sistema e quanto più numerosamente sono stati, per l’appunto, tentati tanto più alta è la precisione con la quale un certo passo evoluzionistico verso un’aumentata complessità avverrà.

E quanto più informazione della situazione precedente si perderà….

Fisica teorica della vita

Già in dicembre dell’anno scorso avevamo portato all’attenzione dei nostri lettori della pubblicazione di un articolo di Jeremy England sulla Fisica Statistisca dell’Autoreplicazione che fu commentata in modo agile su Quanta Magazine con il titolo di una “nuova fisica per la vita” e dove era messa in evidenza l’importanza del secondo principio della termodinamica in quanto motore esplicito dei processi evolutivi di base e da cui traiamo le due illustrazione qui seguenti.

In quest’ultimo articolo erano stati messi in evidenza due simulazioni informatiche che usavano le equazioni sviluppate da England e che illustravano l’evoluzione di un sistema di particelle confinate all’interno di un liquido vischioso e esse stesse mosse da una forza oscillante: l’evoluzione del sistema sotto la semplice applicazione dell’aumento generale dell’entropia del sistema nel suo insieme conduceva all’apparire di strutture localmente più complesse (neghentropiche) e ovviamente al costo di persa di informazione iniziale.

La fotografia di sopra, qui sotto, mostra il sistema dove gli elementi portanti informazione sono più numerosi e non strutturati, mentre quella di sotto mostra in cosa si trasforma il sistema dopo, mostrando localmente una struttura più complessa ma una perdita generale dell’informazione iniziale, scomparsa coll’aumento di entropia del sistema nel suo insieme.

ComputerSim-307x640

La seconda figura qui sotto illustra un modello matematico che descrive come una struttura più complessa (in I)  generata dalla necessità di produrre un massimo di entropia, in quanto vincente per questo fine, tenderà a riprodursi (tappe II e III) molto rapidamente al fine di massimizzare il più presto possibile l’entropia globale del sistema.

self-replicating-microstructures_web3-300x257

Anche qui vediamo che siamo lontanissimo dall’illusione che dal nulla informazione di un sistema casuale si possa generazione informazione! Ma proprio vediamo che è l’informazione già esistente nel sistema che si struttura ulteriormente in funzione di una legge che la guida e non dal “caso”.

Non c’è spazio per il caso: è proprio il mondo reale e fisico che è costitutivamente propenso a generare strutture complesse e anche auto-replicanti in tal modo da accelerare la produzione di entropia: tutto quel che concorre alla fine la più rapida dell’universo è buon da prendersi. E queste strutture complesse, queste simmetrie che regolarmente riemergono, sono già insite nella struttura stessa dell’universo, il suo tessuto esistenziale e ne definiscono completamente la natura e l’essenza.

 

Evoluzione sperimentale

A questo punto cerchiamo di uscire dalle considerazioni teoriche e di simulazione informatica e andiamo a vedere cosa succede davvero nel mondo reale e vedere se tutte queste affermazioni hanno un qualche riscontro sperimentale. Per aiutarci in un modo semplice  useremo di un’altra informazione apparsa tre settimane fa su Quanta Magazine e che spiega come è possibile mettere in evidenza come un singolo cambiamento genetico e una geometria intelligente mostri come organismi unicellulari possano collaborare assieme al fine di formare entità cooperative multicellulari riferendosi alle esperienze sviluppate da  Richard Michod ,  Ben Kerr e William Ratcliff  che presentano l’insigne pregio di essere perfettamente riproducibili e valide.

Il passaggio da un organismo monocellulare ad uno pluricellulare si identifica con il fatto che, nel secondo caso, le cellule individuali non prendono più decisioni indipendentemente dalle altre per la propria sopravvivenza ma agiscono in modo da garantire la sopravvivenza del gruppo al quale appartengono: anche qui vediamo che vi è una perdita di informazione individuale a profitto della costruzione della struttura più complessa. Analogicamente, il più ci integriamo socialmente in un organismo più complesso come una società urbana, il più perdiamo la capacità e le conoscenze legate alla produzione contadina e il meno siamo capaci di sopravvivenza individuale.

Il singolo cambiamento genetico ricercato e scoperto dai nostri tre biologi è quello dove, qualora un cellula di lievito “figlia” è prodotta, questa rimane appiccicata alla propria cellula di lievito “madre” dalla quale deriva, creando così una struttura tipo “fiocco di neve” dove delle strutture complesse prendono forma anche se non sono, ancora, entità davvero pluricellulari.

Praticamente il metodo seguito per sperimentalmente forzare il passaggio da lievito monocellulare a lievito pluricellulare è il seguente:  (a) si mettono i microbi monocellulari in questione in una pipetta lasciandoli svilupparsi, (b) li si fanno centrifugare una volta al giorno e, quindi, le cellule più grosse o quelle che hanno tendenza ad appiccicarsi le une alle altre precipitano per prime, (c) si scelgono solo queste cellule precipitate per prima e le si nutrisce per un’altra giornata, (d) dopo 24 ore si ri-centrifuga e si scelgono ancora una volta quelle precipitate più rapidamente a causa della loro taglia e così via di seguito per una quindicina di giorni. Quel che succede è che durante un periodo di 24 ore ci sono circa ben 7 generazioni di lievito che appaiono permettendo così decine di migliaia di mutazioni genetiche, cioè l’equivalente di decine di migliaia di cannonate al giorno alla ricerca del tuffo d’acqua che deve per forza apparire, il per forza sottolinea che non siamo per niente in un sistema casuale ma veramente causale anche se per garantirne l’osservazione bisogna ripetere l’operazione centinaia di migliaia di volte.

Dopo due settimane circa, cioè un centinaio di generazioni, in alcune pipette qualcosa cambia e cioè invece di vedere solo una soluzione acquosa omogenea si vedono apparire dei grumi e la popolazione si presenta ormai con una struttura di tipo “fiocco di neve” e le cellule individuali diventando ormai una chiara minoranza: le cellule individuali quando si riproduco si separano mentre quelle provenienti dalle strutture in fiocco di neve rimangono appiccicate.

Cosa interessante è che in questi fiocchi di neve composti di lievito le cellule individuali sono pronte a suicidarsi per il beneficio del fiocco al quale appartengono, non solo, ma facendolo generano cellule figlie che partecipano al fiocco, mostrando così, addirittura, un inizio di specializzazione cellulare.

Cosa ancora più interessante è che si genera un imbuto genetico dove tutte le cellule generate da una cellula madre data portano tutte la stessa informazione genetica originaria, diminuendo così la diversità genetica della struttura e l’impatto delle modificazioni genetiche: questo è estremamente importante in quanto è un’illustrazione particolarmente esplicita che la generazione di strutture complesse si fa a scapito dell’informazione totale nel sistema considerato ed conseguenza del fatto che la struttura in fiocco di neve non vuole favorire la presenza di cellule pigre che si svilupperebbero a scapito di quelle che sono organizzate.

Nella foto seguente si mostrano a sinistra cellule di lievito che non sono state evolute in strutture ma sono semplicemente agglomerate in grumi e che sono individualmente estremamente diverse dal punto di vista genetico mentre a destra abbiamo strutture di lievito evoluto in organismi multi-cellulari ma che presentano solo un numero molto ridotto di variazioni genetiche, in questo caso solo due.

FlocSnowflake-640x535

Il seguito dell’esperimento evolutivo consiste a mettere assieme grumi di lievito non evoluto con grande diversità genetica e lievito multicellulare in fiocco di neve ma poco vario geneticamente e si osserva che, dopo un poco, il primo perde la battaglia in quanto il secondo distrugge tutta informazione più ricca della propria in coerenza colla necessaria crescita di entropia necessaria al proprio sviluppo neghentropico.

Osservazioni finali

Questo esperimento di “produzione” di processi evolutivi sotto controllo sperimentale illustra elegantemente che i modelli sviluppati da England o da Annila costruendo equazioni di moto basate esplicitamente sull’entropia di un sistema hanno una fortissima analogia con quel che succede nel reale e, pertanto, possono essere tenute come una prima approssimazione per descrivere scientificamente i meccanismi dell’evoluzione.

L’interesse è che non c’è più bisogno di inventarsi tutta una mitologia fideistica, in realtà logicamente, filosoficamente e scientificamente impossibile, dove il caos genererebbe l’ordine, l’assenza di informazione informazione, una zuppa indiscriminata strutture complesse e tutto ciò per caso: invenzione che, chiaramente, non spiega proprio un bel niente.

È ormai possibile concepire il processo evolutivo come l’esatto contrario: a condizioni iniziali simili corrispondono risultati specifici e v’è una legge di causalità che porta dalle prime ai secondi e che possono essere studiati in quanto tali.

Se ci riferiamo agli studi di Annila e Sharma ai quali ci siamo già riferiti, allora ci rendiamo conto che la famosa legge del più forte di darwiniana memoria e che solo vince non è una legge generale dell’evoluzione ma valida solo in sistemi termodinamici chiusi, mentre in quelli aperti quelli che vincono, come nell’esperimento descritto qui sopra, sono quelli capaci di cooperazione per formare una struttura, e questo al costo di perdita di informazione e non di guadagno di codesta.

Dal punto di vista scientifico ci dovremmo porre la domanda seguente, e cioè, al momento dell’apparire dei primi elementi di vita, quale doveva essere la quantità e la varietà di informazione a disposizione e pronta a essere distrutta lungo i milioni di anni dopo la sua apparizione e fino all’apparire dell’uomo sapiens e sotto che forma essa si presentava concretamente?

E dal punto di vista filosofico la domanda è di capire cosa vuol dire per un ente qualunque possedere informazione e trasmetterla, acquistarne e perderne?

Per rispondervi continueremo la nostra inchiesta nelle prossime puntate di questa serie.

In Pace

(Continua)

Annunci


Categorie:Filosofia, teologia e apologetica

Tag:, , , , , , , ,

3 replies

  1. Comincio ora a capire quale può essere la prospettiva realmente scientifica dell’evoluzione, e come questa non sia contraria alla fede. Grazie.

    Liked by 1 persona

  2. Avvincente come Harry Potter, non vedo l’ora che arrivi domenica prossima…
    Grazie Simon per rendere digeribile queste cose difficili anche a chi non mastica di scienza, grazie della fatica.

    Mi piace

  3. ora comincio però a preoccuparmi per la qualità dell’informazione sottostante. La banalità del male, delle ragioni per cui si può vivere o morire, l’insulsa impersonalità della sofferenza: chi è l’autore, se c’è, dell’informazione, e che cosa ci vuol dire?

    Mi piace

%d blogger hanno fatto clic su Mi Piace per questo: