Complessità e Informazione: una riflessione aristotelica – 4

ob_4edaaf_horloge-17

Continuo qui una serie di riflessioni cominciate nel novembre 2015 e che potete leggere qui, qui e qui sul tema della relazione tra complessità ed informazione e che andrebbero riletti per rimettersi nel contesto di quelle riflessioni.

Ricordiamoci quale era la domanda fondamentale alla quale desideravamo rispondere: se un sistema ambientale che contiene certe strutture evolve spontaneamente, cioè senza intervento esterno, in una direzione dove ci sono strutture più complesse, abbiamo un nuovo sistema che contiene più o meno informazioni di quello precedente?

Cioè il mondo nella frazione di secondo successivo al Big Bang contiene più informazione o meno informazione che un minuto più tardi, o un quarto d’ora più tardi, o 380’000 anni più tardi quando la luce apparve, 13.8 miliardi di anni più tardi; oppure la “zuppa” primordiale sulla terra contiene più o meno informazione che un mondo dove ominidi, piante e animali di ogni qual sorta si sono sviluppati.

Simmetria è disordine

A questo punto dobbiamo essere molto attenti ad una trappola al contempo linguistica e culturale: c’è un errore concettuale profondo e compartito da troppa gente e, cioè, quello di credere che un sistema simmetrico sia un sistema ordinato e, a contrario, che un sistema dissimmetrico sia disordinato

In realtà, è la simmetria che è da associarsi alla nozione di disordine, mentre l’ordine appare quando si rompe una simmetria: per ben illustrare quel che questo significa ricorderò il solito esempio delle transizioni di fase dell’acqua.

Ricordiamoci che un sistema è simmetrico quando permutandone gli elementi la sua forma resta incambiata.

Quando un recipiente di acqua è al disopra dei 100°C, vi troviamo del vapore acqueo dove ognuna delle molecole d’acqua può trovarsi dopo un tempo più o meno lungo in qualunque punto all’interno di questo recipiente, il cui volume gli è dunque potenzialmente accessibile in ogni suo punto. Ogni molecola può essere spostata in alto on in basso, a destra o a manca, può essere fatta girare su di sé, sempre essa avrà accesso a tutto l’insieme del volume: siamo qui in uno spazio perfettamente simmetrico ed omogeneo a tutti questi cambiamenti ed anche altri come il riprodurre lo stesso vapore in un modo speculare. La quantità di informazione a disposizione di ogni molecola d’acqua è gigantesca e corrisponde in questo esempio a tutte possibili posizioni, traslazioni, velocità, rotazioni che essa può compiere in quello spazio dato.

Lasciamo adesso raffreddare questo recipiente: quando la temperatura scenderà un infinitesimo al di sotto dei 100°C , l’energia del sistema diminuisce nel suo insieme, le molecole tendono ad avvicinarsi e benché il sistema rimanga amorfo e disordinato, già statisticamente gli ioni avranno tendenza a cercare configurazioni di minima energia e quindi a strutturarsi qua e là occasionalmente: anche se una parte del recipiente non è più accessibile a causa della forza di gravità agente che non permette alle molecole ormai non possedenti più abbastanza energia cinetica di andare ad occupare qualunque punto dello spazio. Vediamo che qui abbiamo un sistema più ordinato del precedente: in alto il vuoto, inaccessibile ed in basso il liquido, certo disordinato ma ancora simmetrico ed omogeneo se ci si limita a lì dove è presente

 

Se continuiamo a lasciar  raffreddare il nostro recipiente appena arriveremo al di sotto dei 0°C  le attrazioni mutuali tra le molecole diventano statisticamente preponderanti rispetto all’energia cinetica che possiedono e vanno a cercarsi configurazioni spaziali dove minimizzano l’energia necessaria e qui appaiono assi cristallini privilegiati e periodicità della struttura, ma qui ormai tante simmetrie vengono a mancare o a diminuire in quanto non è più così facile per una molecola data traslatarsi o roteare in qualunque modo senza cambiare il solido cristallino, cioè lasciarlo invariante. Quindi vediamo che un sistema altamente ordinato, in realtà possiede meno simmetrie disponibili che uno disordinato.

Altro esempio può essere quello dei punti su un cerchio, rispetto al centro di questi essi sono simmetrici a qualunque altro punto dello stesso cerchio rispetto a qualunque angolo di rotazione voluto: ogni punto del cerchio è quindi, sotto questa prospettiva, perfettamente agonistico rispetto a dove si trovi, il disordine è massimo ogni punto potendo essere scambiato con un altro.

Se rompiamo questa simmetria, ad esempio privilegiando certi punti inscrivendo un dodecagono, un esagono, un quadrato  o un triangolo nel dato cerchio, allora vedremmo apparire una struttura ordinata corrispondente ad ogni figura su citata, ma con gradi di libertà per ogni vertice di molto inferiore a quelli del cerchio: 30° ed i suoi multipli solo di rotazione accessibile per il  primo e solo 12 punti possibili di localizzazione paragonati al cerchio iniziale; 60° per il secondo; 90° per il terzo e 120° per il triangolo.

Ogni volta che rompiamo la simmetria iniziale per ottenere sotto-simmetrie più particolari come quelle citate; vediamo che le possibilità di accesso ai punti sul cerchio diminuiscono fino a raggiungere solo tre possibilità finali: eppure niente è meno disordinato che un triangolo equilaterale, eppure è “meno” simmetrico che il cerchio.

Capire la relazione tra ordine e asimmetria come tra disordine e simmetria o come tra energia ed entropia ha necessitato decenni di riflessioni. Il sovietico Landau fu il primo che fu capace di sistematizzare la relazione tra le varie simmetrie e le loro rotture introducendo la nozione di parametro d’ordine: nella fase simmetrica, la cristallizzazione è nulla, mentre nella fase ordinata, dissimmetrica, quando la simmetria iniziale è stata rotta, un cristallo appare con la sua struttura.

Teoria dell’informazione e entropia

Con le riflessioni di Shannon sull’entropia dell’informazione si arrivano alle stesse conclusioni. Infatti Shannon fu capace di descrivere la quantità di informazione con una formula analoga a quella utilizzata in meccanica statistica e termodinamica per misurare l’entropia.

Secondo lui più una sorgente emette segnali differenti più c’è incertezza dal punto di vista del recettore circa quello che la sorgente emette: Infatti, se la sorgente manda in continuo il segnale “s” ( s s s s s s s s s …) allora l’entropia  è nulla in quanto non c’è nessun ordine tra gli “s”, nessuno viene prima di un altro . Tra l’altro esattamente come i punti su di un cerchio si può compiere una traslazione di “s” da un punto all’altro del messaggio e questo non cambia significato in quanto sempre una successione di “s” sarà.

Se invece abbiamo una rottura di simmetria e la sorgente manda il segnale “a” un dodicesimo del tempo, un segnale “b” un altro dodicesimo del tempo, …, “l” un altro dodicesimo del tempo, il recettore avrà sempre una grande incertezza nel prevedere quale tra i dodici segnali possibili sarà il seguente a pervenire: il disordine è quindi minore, visto che la precedenza di un segnale rispetto ad un altro diventa importante e l’entropia è positiva e non è più nulla. Il massimo di entropia si raggiunge quando la probabilità dell’apparire dei vari segnali è uguale per tutti.

Però quanto più sovente la stessa successione di dati è mandata dalla sorgente, tanto più l’incertezza circa questa informazione diminuisce, cioè quanto più una simmetria emerge tra gruppi di dati, cioè tanto più l’entropia del sistema diminuisce. In controparte più è ridondante meno contiene informazione differente.

Una struttura molto ricca in informazione apparirà quindi come una successione di segnali differenti dove c’è pochissima ridondanza e idealmente nessuna e dove l’ordine nell’apparire dei segnali diventa importantissima. Un sistema complesso come un orologio meccanico può sembrare all’occhio inesperto come un insieme disordinato di elementi nei quali la dissimmetria è massima, eppure contiene un massimo di informazione ordinata capace di indicare un’ora precisa o un lasso di tempo esatto.

Se leggiamo un grande testo di letteratura o di filosofia o di scienza esso è sempre complesso, è impossibile prevedere quale sarà l’informazione compartita, manca completamente di simmetria, ma è perfettamente ordinato.

Quel che fa la bellezza della natura in generale è che è dissimmetrica, mentre l’umano tende a ricercare simmetrie, cioè situazioni e strutture dove l’informazione è prevedibile quindi impoverita. L’asimmetria di ogni viso umano è un ottimo esempio.

Potenza e atto, simmetria e dissimmetria, disordine e ordine, semplicità e complessità

Ricordiamoci che per Aristotele la “potenza” della materia esprime la possibilità ontologica di passare da una forma ad un’altra, mentre l’atto ne è la realizzazione. Il punto di partenza di ogni processo attuativo risiede quindi nell’assenza da parte della materia della forma da avvenire mentre il divenire ne è il processo, una volta l’atto realizzato nulla in esso rimane in potenza. La conoscenza dell’atto è quel che permette di stabilire dove la potenza andrà a parare. La potenza, essendo assenza di atto, non ci può dare nessuna informazione circa quest’ultimo se non negativamente.

Eppure nella potenza (dynamis) stessa risiede l’intera possibilità per l’atto (energheia) di avvenire: in essa sono come contenute tutte le informazioni necessarie anche se senza ordine.

Quando guardiamo un sistema perfettamente simmetrico, come i punti su un cerchio, come una successione di “s”, come lo stato dell’universo una frazione di secondo dopo il tempo di Planck, dove tutte le particelle ed i loro campi non erano distinguibili tra di loro e quindi perfettamente intercambiabili essi tutti esprimono un’entropia uguale o vicina a zero. In tutti questo casi l’informazione in atto è assolutamente certa: facendo girare un punto del cerchio lungo il cerchio sempre nel cerchio sarà; aspettando il prossimo segnale in arrivo l’informazione ricevuta è certa sempre “s” sarà; tutte le reazioni tra tutte le particelle dell’universo appena nato producono risultati identici.

Tutte queste situazioni in atto sono perfettamente simmetriche e disordinate (non si riesce a distinguere un “s” da un altro “s”) cioè con entropia zero o vicina allo zero.

Un sistema perfettamente simmetrico, sotto l’azione di cause esterne, ad esempio un cerchio può essere deformato, oppure la sorgente emittrice di segnali comincia ad emettere “t” accanto a dei “s”, oppure l’universo iniziale vede il proprio volume aumentare e la sua temperatura scendere e il campo di Higgs pervaderlo, può rompersi e produrre sistemi meno simmetrici. Nei nuovi sistemi in atto la simmetria iniziale è persa essi diventano ordinati e dissimmetrici, e solo sono in atto, in sottosistemi specifici, simmetrie particolari. L’entropia dell’insieme sale in tutti i casi, l’informazione contenuta nel nuovo sistema diventando sempre più incerta ed imprevedibile ad ogni nuova rottura di simmetria.

Mentre nel sistema completamente simmetrico iniziale sono contenute in atto tutte le possibili sotto-simmetrie, quando esso viene a rompersi, le sotto-simmetrie attuali non attuano più la simmetria iniziale. Questa perdita di informazione è incommensurabile ogni volta che avviene: è un processo “catastrofico”, dove quelle prime simmetrie sono definitivamente perse nel secondo sistema il nuovo ordine impedendone ormai l’attuazione.

La potenza aristotelica analogicamente ai sistemi fisici perfettamente simmetrici è indifferente agli atti nei quali si attuerà sotto l’azione di cause (efficienti o finali).

L’informazione potenziale che contiene è di per sé di molto superiore a quella che l’atto specifico di una delle sue varianti realizzate effettivamente conterrà e produrrà, visto che ogni evento attuante ridurrà detta potenza, cioè le simmetrie, fino al punto finale dove l’atto finale di una potenza inizialmente data, perfettamente dissimmetrico e ordinato, esprimerà un’entropia massima, senza nessuna informazione certa.

Riportandoci alla nozione di complessità possiamo quindi affermare che un sistema è tanto più complesso, quanto più dissimmetrico e ordinato, quanto più alto in entropia e, quindi, avente perso il massimo possibile di informazioni potenziali contenute nei sistemi simmetrici che ne sono alla sua origine materiale.

Un blocco di marmo ammette tantissime simmetrie possibili, una volta scolpito esse sono tutte perse e rimane solo una ultima possibilità: distruggerlo

Il Caos è la fine, non l’inizio

Un sistema caotico, per definizione, è un sistema dove l’informazione è assolutamente imprevedibile, ad esempio un sistema dove le 27 lettere dell’alfabeto apparirebbero sempre a caso e sempre sarebbe impossibile capire qualunque messaggio certo dalla sorgente che l’emette (“white noise”), è un sistema dove nell’universo tutte le simmetrie sono state rotte e dove non è più possibile risalire all’informazione stessa di quel che è l’universo.

Il Caos è quindi l’assenza di qualunque informazione accessibile e la sua entropia è infinita.

Cioè l’opposto di quel che è l’inizio dell’universo con la sua entropia uguale a zero, la simmetria imperante, l’informazione certa che esprime e che si potrà attualizzare in varie forme degradate lungo gli eoni.

In  Pace

(Continua)

Annunci


Categorie:Filosofia, teologia e apologetica

2 replies

  1. Quindi la storia dell’universo è la storia di un decadimento o degradamento, oppure dispersione?

    Dio è simmetrico?

    Mi piace

    • Dio è Atto puro, quindi nella sua natura è perfettamente ordinato e asimmetrico: infatti le Tre Persone non sono intercambiabili tra di loro, non c’è simmetria tra di Loro. Dio è però semplice nella Sua sostanza e quindi simmetrico per analogia (simmetria in senso proprio presuppone l’esistenza di più enti e dato che non ci sono molti “Dio”, ma solo Uno, non si può applicare propriamente questo concetto, come neanche si può propriamente affermare che un punto geometrico isolato sia “simmetrico”: lo è in quanto non è asimmetrico; o allora supremamente asimmetrico rispetto a tutti gli enti esistenti…)

      Certamente, la storia dell’universo è la storia del decadimento di tutta l’informazione certa all’inizio potenzialmente accessibile da tutti i suoi elementi, verso sotto-sistemi complessi, ordinati, ai quali sono accessibili solo una parte dell’informazione iniziale. È la storia dell’aumento dell’entropia.

      In Pace

      Mi piace

%d blogger hanno fatto clic su Mi Piace per questo: