Articoli

Unisciti alla Conversazione

DIBATTITO. L’informazione: di origine naturale o soprannaturale?

L'informazione nell'universo può essere spiegata da processi naturali che alla fine si riducono a particelle subatomiche o ha una spiegazione che va oltre la materia?

Questo è l'argomento del seguente dibattito tra Chris Du-Pond (un credente) e Manuel Mendoza (un ateo).

Data la profondità del dibattito, mi limiterò a presentare solo il discorso di apertura in questo articolo. Il resto del dibattito può essere scaricato in formato PDF su questo sito. Di seguito, puoi lasciarci la tua opinione nella sezione commenti. Grazie per la partecipazione!

In questo dibattito presenterò due argomentazioni principali.

1. Abbiamo buone ragioni per credere che la natura non sia in grado di creare nuove informazioni secondo i teoremi di conservazione dell'informazione.

2. Anche se la mia argomentazione n. 1 non fosse valida, il naturalismo rimarrebbe comunque falso, data l'impossibilità per il naturalista di esercitare il suo “libero pensiero” per dimostrare che l'informazione ha un'origine naturale.

Per difendere l'argomentazione n. 1 userò il seguente ragionamento logico.

1. L'informazione ha un'origine soprannaturale o un'origine naturale.

2. L'informazione non ha un'origine naturale.

3. Pertanto, l'informazione ha un'origine soprannaturale.

Per sostenere la tesi n. 2 userò il seguente ragionamento logico: [1]

1. Se il naturalismo è vero, l'anima-mente immateriale umana non esiste.

2. Se l'anima-mente non esiste, il libero arbitrio libertario non esiste.

3. Se il libero arbitrio libertario non esiste, la razionalità e la conoscenza non esistono.

4. La razionalità e la conoscenza esistono.

5. Pertanto, il libero arbitrio libertario esiste.

6. Pertanto, l'anima esiste.

7. Pertanto, il naturalismo è falso.

La migliore spiegazione dell'esistenza dell'anima è Dio.

Il primo argomento è un sillogismo disgiuntivo valido e il secondo è della forma:

1. N → ¬ A

2. ¬ A → ¬ LAL

3. ¬ LAL → ¬ R & ¬ C

4. R & C

5. R & C → LAL

6. LAL → A

7. A → ¬ N

Entrambe le argomentazioni sono valide e, se le premesse sono vere, allora le conclusioni sono necessariamente vere. Quindi, procederò a dimostrare le premesse.

In alternativa, Manuel dovrà dimostrare che una delle premesse delle mie due argomentazioni è invalida, poiché una sola argomentazione è sufficiente per dimostrare che il naturalismo è falso e quindi incapace di generare informazioni. Ma non solo: Manuel non solo deve dimostrare che le mie argomentazioni sono errate, ma deve anche presentare una sua argomentazione che dimostri come le informazioni possano essere generate da processi naturali. Una cosa è dimostrare che le informazioni NON hanno un'origine soprannaturale eliminando due argomentazioni, un'altra è dimostrare che le informazioni hanno un'origine naturale.

Inizierò giustificando le premesse della tesi n. 2:

Secondo il dizionario Webster, una definizione semplice di informazione è:

Conoscenza ottenuta su qualcuno o qualcosa: fatti o dettagli su un argomento. È definita in modo più dettagliato come “la comunicazione o la ricezione di conoscenza o intelligenza”. Il problema per il naturalista qui è che, se il naturalismo è vero, è impossibile ricevere o trasmettere informazioni e l'impresa di ottenere conoscenza è una semplice finzione. Ciò è dimostrato dall'argomento del “libero pensatore”. [2]

Premessa 1: Se il naturalismo è vero, l'anima-mente immateriale umana non esiste. Questo fatto è accettato dai naturalisti, quindi non richiede alcuna giustificazione.

Premessa 2: Se l'anima-mente non esiste, il libero arbitrio libertario non esiste.

Ciò equivale a dire:

“Se tutto ciò che esiste è naturale, allora tutto ciò che esiste è causato da leggi naturali e da cose ed effetti al di fuori del controllo umano”.

Questo è accettato da noti naturalisti come Richard Dawkins, Stephen Hawking, Sam Harris, ecc.

In un dialogo sul determinismo scientifico e la moralità, Dawkins ha affermato:

“Nessuno di noi dice: 'Oh beh, non poteva farci niente; era determinato dalle sue molecole… Ma forse dovremmo farlo”.

Alla domanda se questa prospettiva fosse incoerente con l'ateismo e il naturalismo, Dawkins ha risposto:

“In un certo senso, sì. Ma è un'incoerenza con cui dobbiamo convivere, altrimenti la vita sarebbe intollerabile”. [3]

Dawkins ammette che per vivere felicemente come ateo è necessario credere in una “bugia innocente” e in uno stato di autoinganno.

Stephen Hawking è d'accordo:

È difficile immaginare come possa funzionare il libero arbitrio se il nostro comportamento è determinato da leggi fisiche; quindi, sembra che non siamo altro che macchine biologiche e che il libero arbitrio sia un'illusione. [4]

Egli sostiene inoltre che il nostro comportamento è determinato proprio come le orbite dei pianeti.

Sam Harris si unisce al coro:

“Il libero arbitrio è un'illusione. La nostra volontà non è nostra”. [5]

Questa negazione del libero arbitrio ci porta al punto successivo.

Premessa 3: Se il libero arbitrio libertario non esiste, non esistono né la razionalità né la conoscenza.

Ciò include i pensieri e lo scambio di informazioni. Le libere decisioni di Manuel di utilizzare le leggi della logica e la sua capacità di analizzare le informazioni che ho catturato in simboli che i suoi neuroni possono decodificare non sono altro che un'illusione. Le idee, l'elaborazione delle informazioni e l'acquisizione della conoscenza sono semplicemente determinate dalle leggi della fisica e della chimica. Se il naturalismo è vero, non esiste il libero arbitrio nelle nostre azioni, compresa l'idea che un argomento sia migliore di un altro.

Il determinismo praticamente si autodistrugge: se si arriva a credere che il determinismo (che tutte le azioni sono il prodotto di processi naturali precedenti) è vero, si deve concludere che l'unica ragione per cui si è giunti a tale conclusione è perché si era determinati a farlo. Il naturalista deve accettare che la ragione per cui è giunto ad accettare il determinismo era, di per sé, determinata. In fin dei conti, è difficile capire come si possa affermare razionalmente il determinismo, dato che tale affermazione è autodistruttiva.

La conclusione di tutto ciò è che la capacità di discernere le leggi della logica o della matematica o di avere intenzioni dipende dal libero arbitrio, ma dato che il libero arbitrio semplicemente non esiste, anche la capacità di discernere, di trasmettere conoscenze e informazioni non esiste, perché richiede l'uso della volontà. Vorrei sottolineare qui che nel momento in cui Manuel inizia a usare la sua capacità di ragionamento per discutere questo punto, lo sta tacitamente affermando (e concedendo la vittoria nel dibattito) perché per discuterlo è necessario essere in grado di discernere, cosa impossibile se siamo dei robot in carne e ossa. Se Manuel obietta a questo, gli chiederò: se tutti i tuoi pensieri sono predeterminati, allora come fai a SAPERE che i tuoi pensieri predeterminati sono veri? Tutto ciò che i naturalisti possono fare è PRESUMERE che i suoi pensieri predeterminati siano corretti (un errore logico chiamato “petitio principii”). E qualsiasi argomento basato su un errore logico non è un argomento valido.

Premessa 4: La razionalità e la conoscenza esistono.

Inoltre, quando Manuel utilizza le sue facoltà mentali, legge gli argomenti attraverso l'elaborazione dei SIMBOLI in questo scritto, la sua mente converte i DATI in INFORMAZIONI e lui utilizza il suo libero arbitrio (nessuno lo obbliga a discutere) per rispondere, affermando così la premessa n. 4.

Quindi, se il naturalismo fosse vero, non potremmo conoscerlo perché non avremmo la libertà di elaborare quel tipo di informazioni o qualsiasi altro tipo di informazioni.

Per dimostrare che le informazioni hanno un'origine naturale, Manuel deve ragionare e usare il suo libero arbitrio, il che elimina il naturalismo.

Passiamo alla mia prima tesi:

1) Abbiamo buoni motivi per credere che la natura non sia in grado di creare nuove informazioni secondo i teoremi della conservazione dell'informazione.

Per difendere la tesi n. 1, userò il seguente ragionamento logico.

1. L'informazione ha un'origine soprannaturale (non materiale) o un'origine naturale.

2. L'informazione non ha un'origine naturale.

3. Pertanto, l'informazione ha un'origine soprannaturale.

Questo ragionamento accumula le prove dell'argomento precedente, rendendo il naturalismo implausibile.

Premessa 1: L'informazione ha un'origine soprannaturale o naturale. Ritengo che questa premessa non sia controversa, dato il significato del principio di esclusione.

Premessa 2: L'informazione non ha un'origine naturale.

È qui che svilupperò la maggior parte della mia argomentazione. Vorrei chiarire che la mia argomentazione (basata sul lavoro di Dembski) incorpora principi di matematica e teoria probabilistica accettati da tutti i dipartimenti universitari di informatica. Manuel dovrà dimostrare perché la matematica fallisce una volta che i teoremi di conservazione dell'informazione sono stati formalmente stabiliti.

In Steps towards life (Passi verso la vita), Manfred Eigen identifica quello che considera il problema centrale della ricerca sull'origine della vita: «Il nostro compito è trovare un algoritmo, una legge naturale che ci conduca all'origine dell'informazione». [6] Eigen ha ragione solo a metà. Per determinare come è iniziata la vita, è certamente necessario comprendere l'origine dell'informazione. Ma anche in questo caso, né l'algoritmo né le leggi naturali possono produrre l'informazione. Il grande mito della biologia evolutiva moderna è che l'informazione possa essere ottenuta dal nulla, senza ricorrere all'intelligenza. [7] È questo mito che cerco di confutare, ma per farlo dovrò fornire una spiegazione dell'informazione rilevante per la biologia. [8]

L'intuizione fondamentale alla base dell'informazione non è, come talvolta si pensa, la trasmissione di segnali attraverso un canale di comunicazione, ma piuttosto la realizzazione di una possibilità con l'esclusione di altre. Come dice Fred: “la teoria dell'informazione identifica la quantità di informazioni associate o generate dal verificarsi di un evento (o dalla realizzazione di uno stato di eventi) con la riduzione dell'incertezza, l'eliminazione delle possibilità rappresentate da quell'evento o stato di eventi”. [9] Senza dubbio, quando i segnali vengono inviati attraverso un canale di comunicazione, una possibilità viene aggiornata per escluderne altre, in altre parole, il segnale che è stato inviato per escludere quelli che non lo erano. Ma questo è solo un caso speciale. L'informazione, in primo luogo, presuppone non un mezzo di comunicazione, ma un mezzo di contingenza. Robert Stalnaker ha chiarito questo punto: “il contenuto richiede contingenza. Imparare qualcosa, acquisire informazioni, significa escludere possibilità. Comprendere le informazioni trasmesse in una comunicazione significa sapere quali possibilità sarebbero escluse dalla sua verità”. [10]

Affinché ci sia informazione, deve esserci una molteplicità di possibilità diverse, ognuna delle quali potrebbe verificarsi. Quando una di queste possibilità si verifica e le altre vengono escluse, l'informazione viene aggiornata. Infatti, l'informazione nel suo senso più generale può essere definita come la realizzazione di una possibilità e l'esclusione delle altre (da notare che questa definizione comprende sia l'informazione sintattica che quella semantica).

Pertanto, possiamo parlare delle informazioni inerenti all'ottenimento di cento volte testa con una moneta non segnata, anche se questo evento non si verifica mai. Non c'è alcun problema in questo. In situazioni controfattuali, la definizione di informazione deve essere applicata in modo controfattuale. Quindi, considerando l'informazione insita nell'ottenere cento volte testa con una moneta non segnata, trattiamo questo evento o possibilità come se si fosse effettivamente verificato. L'informazione deve essere riferita non solo al mondo reale, ma anche, tramite riferimenti incrociati, a tutti i mondi possibili.

Come vengono applicate le informazioni alla biologia o, più in generale, alla scienza? Per rendere le informazioni un concetto utile per la scienza, dobbiamo fare due cose:

1. Essere in grado di misurare la quantità di informazioni.

2. Introdurre una distinzione fondamentale tra informazioni specifiche e non specifiche.

Per i teorici dell'informazione, il modo più conveniente per misurare l'informazione è in bit. Qualsiasi messaggio inviato attraverso un canale di comunicazione può essere trasformato in una stringa di zero e uno. Ad esempio, il codice ASCII utilizza stringhe di otto zero e uno per rappresentare i caratteri di una macchina da scrivere, in modo che le parole e le frasi siano stringhe di stringhe di tali caratteri. Allo stesso modo, tutte le comunicazioni possono essere ridotte a trasmissioni di sequenze di zero e uno. Data questa riduzione, il modo più ovvio in cui i teorici della comunicazione misurano l'informazione è il numero di bit trasmessi dal canale di comunicazione. E poiché il logaritmo in base 2 negativo di una probabilità corrisponde al numero medio di bit necessari per identificare un evento di quella probabilità, il logaritmo in base 2 è il logaritmo canonico dei teorici della comunicazione. Pertanto, definiamo la misura dell'informazione (I) in un evento di probabilità p come –logp. [11]

Consideriamo anche che la probabilità che due eventi A e B si verifichino insieme è uguale al prodotto delle probabilità di A e B prese singolarmente. Simbolicamente, P(A&B) =P(A) x P(B). Data la nostra definizione logaritmica di informazione, possiamo affermare che P(A&B) =P(A) x P(B) se e solo se I(A&B) =I(A) x I(B).

Ma cosa succede se gli eventi A e B sono correlati? Questo può essere definito come l'informazione condizionata di B dato A, ovvero I(B/A), in modo che, se A non apporta alcuna informazione aggiuntiva, allora I(B/A) =I(B). Pertanto, possiamo dedurre che:

I(A&B) = I(A) + I(B/A) (*)

La formula (*) è di natura generale e si riduce a I(A&B) = I(A) + I(B) quando A e B sono indipendenti dal punto di vista probabilistico (nel qual caso P(B/A) = P(B) e quindi I(B/A) = I(B)).

La formula (*) afferma che le informazioni contenute in A e B insieme sono le informazioni contenute in A più le informazioni contenute in B che non sono contenute in A. Pertanto, la questione è determinare quante informazioni aggiuntive provenienti da B contribuiscono ad A.

Ad esempio, un programma per computer chiamato A genera nuove informazioni quando produce nuovi dati chiamati B? I programmi per computer sono completamente deterministici, quindi B è completamente determinato da A. Ne consegue che P (B/A) = 1 e quindi I(B/A) = 0 (il logaritmo di 1 è sempre 0). Dalla formula (*) ne consegue quindi che I(A&B) = I(A) e, di conseguenza, la quantità di informazioni contenute in A e B insieme non è superiore alla quantità di informazioni contenute in A di per sé.

Questo funziona, ad esempio, con due stringhe di informazioni identiche come due copie identiche del Don Chisciotte? In termini di teoria dell'informazione, diremmo che I(B/A) = 0 e in termini di probabilità che P (B/A) =1 poiché la seconda copia del Don Chisciotte è totalmente ridondante e non aumenta la quantità di informazioni.

Per misurare l'informazione (il suo grado di complessità) si può utilizzare la seguente formula: dato un evento A con probabilità P(A), I(A)= -log2.P(A) misura il numero di bit associati alla probabilità P(A). Pertanto, il grado di COMPLESSITÀ DELL'INFORMAZIONE aumenta all'aumentare di I(A) o al diminuire di P(A).

Per introdurre il concetto di CONSERVAZIONE dell'informazione, utilizziamo l'esempio delle simulazioni come il programma WEASEL di Dawkins, o AVIDA, o Tierra, che mirano a dimostrare il paradigma neodarwinista "dell'introduzione” dell'informazione in modo NATURALE. Il problema è che questi programmi finiscono per introdurre di nascosto informazioni nei loro algoritmi, dimostrando tacitamente che le informazioni devono essere introdotte da un programmatore intelligente. Questi programmi approfittano dell'ignoranza sul funzionamento dell'informazione. L'informazione che viene INTRODOTTA DI NASCOSTO sarà chiamata INFORMAZIONE ATTIVA. L'informazione non si materializza magicamente; è prodotta solo da una mente intelligente o spostata da un luogo all'altro da processi naturali. Ma i processi naturali e i processi darwiniani in particolare non creano informazione. L'INFORMAZIONE ATTIVA ci permette di vedere questo fatto:

L'INFORMAZIONE ATTIVA tiene traccia della differenza tra una ricerca alla cieca, che chiamiamo RICERCA NULL, e una ricerca che riesce a trovare meglio un obiettivo (T), che chiameremo RICERCA ALTERNATIVA.

Consideriamo una ricerca dell'obiettivo T in uno spazio di ricerca finito Ω. La ricerca di T inizia senza alcuna conoscenza strutturale dello spazio di ricerca che possa facilitare il ritrovamento di T. Si applica il principio di Bernoulli della ragione insufficiente e quindi siamo nel nostro diritto epistemico di supporre che la distribuzione di probabilità su Ω sia uniforme, con probabilità di T pari a p=|T|/|Ω|, dove |*| è la cardinalità di *.

Quindi, in questo caso, è logico che la probabilità p sia così piccola perché si tratta di una ricerca cieca (casuale) di T nello spazio Ω (ad esempio una ricerca casuale di T in Ω) che è estremamente improbabile che abbia successo. Il successo richiede che, invece di una ricerca casuale o cieca, venga eseguita una ricerca alternativa S che abbia una probabilità q di successo notevolmente superiore a p. P cattura la difficoltà intrinseca di trovare T alla cieca, mentre q cattura la difficoltà di trovare T con una ricerca alternativa. E qui la domanda obbligatoria è:

Come è possibile che la ricerca casuale o cieca che individua T con probabilità p abbia dato origine alla ricerca alternativa S che individua T con probabilità q?

Nel programma WEASEL di Dawkins, si inizia con una ricerca alla cieca con una probabilità di successo di circa 1x10exp40. Questo è p. Egli implementa quindi una ricerca alternativa S (l'algoritmo evolutivo) la cui probabilità di successo in una dozzina di iterazioni è vicina a 1. Questo è q. Secondo Dawkins, ciò dimostra la potenza dei processi darwiniani quando tutto ciò che ha fatto è stato migrare il problema. Introducendo una ricerca alternativa con probabilità di successo q, Dawkins incorre in un costo di probabilità p per trovare la funzione di ricerca corretta, che coincide (non a caso, tra l'altro) con l'improbabilità originale di una ricerca alla cieca per trovare T. Il problema dell'informazione che Dawkins cercava di risolvere rimane irrisolto. Ha semplicemente sottratto informazioni alla sua mente intelligente per mezzo di un algoritmo più efficiente.

Formalizziamo questo problema matematicamente utilizzando basi logaritmiche di misurazione dell'informazione. Nota che tutti i logaritmi sono in base 2. [12]

Definiamo INFORMAZIONE ENDOGENO IΩ come –log(p), che misura la difficoltà intrinseca di una ricerca cieca (casuale) nello spazio Ω per individuare T.

Definiamo INFORMAZIONE ESOGENO Is come –log(q), che misura la difficoltà della ricerca alternativa S per individuare T.

Infine, definiamo INFORMAZIONE ATTIVA I+ come la differenza tra INFORMAZIONE ENDOGENA ed ESOGENA: I+ = IΩ – Is = log(q/p). Pertanto, l'INFORMAZIONE ATTIVA misura l'informazione che deve essere aggiunta (da qui il segno + in I+) a una ricerca casuale per aumentare la probabilità di una ricerca alternativa di un fattore q/p.

I programmi evolutivi come WEASEL di Dawkins, AVIDA di Adami, TIERRA di Ray e EV di Schneider sono tutti RICERCHE ALTERNATIVE. Pertanto, migliorano il modello di ricerca rispetto a una ricerca casuale aumentando la probabilità di successo nell'individuazione di un obiettivo T sostituendo una ricerca IΩ con una ricerca Is ignorando le INFORMAZIONI ATTIVE I+ aggiunte dal programmatore.

Ora, l'importanza fondamentale dei teoremi sulla CONSERVAZIONE DELL'INFORMAZIONE risiede nel fatto che dimostrano formalmente il flusso di informazioni applicato esternamente a una ricerca per aumentarne la probabilità di successo. In altre parole, questi teoremi dimostrano che il miglioramento della facilità di ricerca, rappresentato da Is che sostituisce IΩ, deve essere PAGATO in termini di informazioni, e il costo è I+ = IΩ – Is.

Non solo, ma l'INFORMAZIONE ATTIVA rappresenta il livello OTTIMALE di informazioni che deve essere pagato per migliorare la ricerca.

Generalizzando il caso in cui una ricerca può consistere in un numero M di quesiti, il teorema può essere generalizzato matematicamente:

PROVA: Sia Ω = {x1, x2, …, xK, xK+1, …, xM} tale che T = {x1, x2, …, xK} e sia Ω´ = {y1, y2, …, yL, yL+1, …, yN} tale che T´ = {y1, y2, …, yL}. Allora p = K/M e q = L/N e |F| = MN. Utilizzando il teorema binomiale, si può vedere che il numero di funzioni in F che corrispondono a L elementi di Ω´ in T negli elementi rimanenti di Ω´ in ΩT è:

From this, in turn, it follows that the number of functions F that correspond to L or more elements of Ω' in T and the remaining elements of Ω' in Ω'T

Ora, se dividiamo questa quantità per il numero di elementi in F, ovvero MN, otteniamo:

che non è altro che una distribuzione binomiale cumulativa con parametri N e p. È anche la probabilità di T. Dato che la media di tale variabile casuale è Np poiché q=L/N, ne consegue che:

Ne consegue quindi che –log(|T|/|F|) è limitato dall'INFORMAZIONE ATTIVA I+ = log(q/p). E questo DIMOSTRA il teorema.

Il teorema di conservazione dell'informazione dimostrato sopra è probabilmente il teorema di conservazione dell'informazione più basilare. E dimostra che, quando si costruisce una ricerca alternativa che migliora una ricerca casuale, si deve pagare per tale miglioramento in termini non inferiori all'INFORMAZIONE ATTIVA.

Dembski sviluppa quindi e DIMOSTRA MATEMATICAMENTE tre ulteriori TEOREMI DI CONSERVAZIONE DELL'INFORMAZIONE con le relative verifiche. [13]

Per i gentili lettori, una definizione più semplice dei teoremi:

Aumentare la probabilità di successo di una ricerca non facilita in alcun modo il raggiungimento dell'obiettivo della ricerca e potrebbe addirittura complicarlo, una volta considerato il costo dell'aumento della probabilità di successo. La ricerca è costosa e tale costo deve essere pagato in termini di informazioni.

La ricerca ha successo non perché genera informazioni dal nulla, ma perché sfrutta le informazioni esistenti. Le informazioni che portano al successo della ricerca non consentono scorciatoie, ma solo scorciatoie apparenti che devono essere compensate altrove. [14]

Possiamo quindi concludere che le informazioni presenti nel materiale genetico non possono essere create da processi evolutivi naturali se tali informazioni non erano già presenti in precedenza. Ciò dimostra il valore di verità della premessa 2:

2. Le informazioni non hanno origine naturale

Data la mia contingenza iniziale sotto forma di sillogismo, concludiamo che l'informazione deve avere un'origine soprannaturale (non materiale).

1. L'informazione ha un'origine soprannaturale o un'origine naturale.

2. L'informazione non ha un'origine naturale.

3. Pertanto, l'informazione ha un'origine soprannaturale.

Affinché Manuel abbia successo nel dibattito, dovrà prima dimostrare perché le mie due contingenze sono probabilmente false e presentare invece un argomento a favore dell'origine NATURALE dell'informazione genetica.

Grazie a tutti coloro che hanno seguito il dibattito fino ad ora.

Qui puoi scaricare il dibattito completo.

CD

1. Si tratta di un ragionamento logico sviluppato da Tim Stratton. Il ragionamento completo in inglese è disponibile all'indirizzo http://freethinkingministries.com/freethinking-atheists-are-oxymorons/. ↩

2. Vedi: http://www.merriam-webster.com/dictionary/information ↩

3. Logan Gage, Chi ha scritto il nuovo libro di Richard Dawkins? evolutionnews.org, 28 ottobre 2006. Tratto da: http://www.evolutionnews.org/2006/10/who_wrote_richard_dawkinss_new002783.html ↩

4. Stephen Hawking, Il grande disegno, (New York: Bantam Books, 2010), 32. ↩

5. Sam Harris, Il libero arbitrio, (New York: Free Press, 2012), 5. ↩

6. Manfred Eigen, Passi verso la vita: Prospettive sull'evoluzione, (Oxford: Oxford University Press, 1996), 12. ↩

7. Enfasi aggiunta. ↩

8. I paragrafi seguenti sono interamente dovuti al Dr. William Dembski per il suo lavoro sui concetti presentati. Una traduzione completa è disponibile all'indirizzo: http://www.oiacdi.org/articulos/DI_como_teoria__informacion.pdf. Il suo lavoro originale è disponibile all'indirizzo William Dembsli, Intelligent Design as a Theory of Information, An Interdisciplinary Conference at the University of Texas, Discovery Institute, http://www.discovery.org/a/118, (consultato il 7 novembre 2016). ↩

9. Fred Dretske, La conoscenza e il flusso dell'informazione, (Cambridge, Mass.: MIT Press, 1981), 4. ↩

10. Robert Stalnaker, Inchiesta, (Cambridge, Mass.: MIT Press, 1984), 85. ↩

11. Vedi Claude Shannon e W. Weaver, Teoria matematica della comunicazione, (Illinois: University of Illinois Press, 1949); R. W. Hamming, Codifica e teoria dell'informazione, 2a edizione (Englewood Cliffs, N. J.: Prentice-Hall, 1986) o qualsiasi introduzione matematica alla teoria dell'informazione.↩

12. Il seguente ragionamento, che consiste nel postulare i teoremi di conservazione dell'informazione, è interamente opera di William Dembski e Robert J. Marks II. Il loro ragionamento formalizzato e pubblicato è accessibile in William A. Dembski e Robert J. Marks II, “LIFE'S CONSERVATION LAW: Why Darwinian Evolution Cannot Create Biological Information” in Bruce Gordon e William Dembski, editori, LA NATURA DELLA NATURA (Wilmington, Del.: ISI Books, 2009). La versione online è accessibile all'indirizzo http://www.evoinfo.org/publications/lifes-conservation-law/. ↩

13. Per vedere le dimostrazioni complete: William A. Dembski e Robert J. Marks II, “LA LEGGE DI CONSERVAZIONE DELLA VITA: Perché l'evoluzione darwiniana non può creare informazioni biologiche” in Bruce Gordon e William Dembski, editori, THE NATURE OF NATURE (Wilmington, Del.: ISI Books, 2009). La versione online è disponibile all'indirizzo http://www.evoinfo.org/publications/lifes-conservation-law/. ↩

14. William Dembski, Essere come comunione: una metafisica dell'informazione (Burlington, VT: Ashgate Publishing Ltd, 2014), Kindle 3864. ↩

Scritto da:

Picture of Christophe DuPond

Christophe DuPond

In Questo Articolo

Articoli Correlati

Unisciti alla Conversazione! Scopri di Più con i Nostri Articoli Correlati!

Analisi della filosofia del “BUON VIVERE” e del mito del “MAGICO INDIGENO”

Introduzione I francesi hanno un'espressione comune per riferirsi al ‘buon vivere’. La chiamano ‘la joie de vivre’. L'idea è quella di godersi la vita al massimo. Da questa parte dell'Atlantico, i costaricani usano l'espressione “pura vida” per riferirsi a un concetto simile. Tuttavia, questi due concetti sono più in linea con l'epicureismo moderno, che cerca […]

...

GLI ESSERI UMANI SONO SOLO DEI “ROBOT” DI CARBONIO?

Una questione importante che noi esseri umani dobbiamo considerare è quella che i filosofi hanno definito “il problema mente-corpo”. Il punto centrale è questo: gli esseri umani sono costituiti da una sola sostanza o da più sostanze? Queste due prospettive sono note come fisicalismo (l'idea che il mondo materiale sia tutto ciò che esiste) e […]

...

Come rispondere a chi afferma: «Io credo solo nella scienza»

Mi capita spesso di conversare con persone che sostengono che la scienza sia l'unico mezzo ragionevole per acquisire conoscenza e scoprire la verità. Questa posizione è chiamata scientismo e, sebbene sia vero che la scienza è meravigliosa e può fornirci ogni tipo di informazione valida, credo anche che la maggior parte delle nostre conoscenze rilevanti […]

...