Informação

De CriaçãoWiki, a enciclopédia da ciência da criação.
"HOT" escrito na areia. Alguém deixou esta informação na areia com algum propósito.

Informação é um termo derivado do verbo Latim: informare significando "dar forma à mente", "disciplinar", "instruir", "ensinar". A informação é geralmente entendida como conhecimento ou fatos que se tenha adquirido, contudo em algumas áreas da ciência, a informação é definida de forma diferente e muitas vezes ambígua.[1][nota 1]

Para a ciência criacionista, é a informação (palavra de Deus), que está na base do ajuste fino do universo. Além disso, a existência de informação biológica dentro de cada célula (ADN e ARN) fornece o que é talvez o argumento mais poderoso para o design inteligente. William Dembski afirma que o ADN possui complexidade especificada (ou seja, é complexa e especificada, simultaneamente) e, portanto, deve ter sido produzida por uma causa inteligente (isto é, que foi concebida), ao invés de ser o resultado de processos naturais.[2] Uma das principais objeções à evolução é a origem das enormes quantidades de conteúdo de informação genética que é necessário para que um organismo evolua a partir de micróbios para os humanos.[3] Não só não tem sido identificada nenhuma fonte credível em que a informação poderia ser produzida por processos naturais, mas, em contrapartida, a adaptação dos organismos vivos envolve uma redução da informação no genoma através da seleção natural.[4]

Definições ou caracterizações

A palavra "informação" é usada de muitas maneiras. Nós já mencionámos o sentido da pessoa leiga acima, mas é também usada para uma sequência de símbolos (tais como as letras de uma linguagem (veja a figura à direita), pontos e traços do Código Morse, ou o arranjo das saliências do código Braille) que transmitem um significado. Outra maneira como o termo é usado é em teoria de comunicações, e compressão de mensagens. São principalmente os dois últimos desses sentidos que são discutidos neste artigo.

Royal Truman, na sua análise publicada no Journal of Creation discute duas famílias de abordagens: Aquela derivada do trabalho de Shannon e outra derivada do trabalho de Gitt.[5] Truman também mencionam a definição algorítmica da informação, desenvolvida pela Solomonoff, Kolmogorov e com contribuições de Gregory Chaitin, mas que não é discutida em seu artigo.[5] Conforme Stephen Meyer, os cientistas geralmente distinguem dois tipos básicos de informação: informação significativa ou funcional e a chamada informação de Shannon[6] (em alusão à Claude Shannon, que desenvolveu a teoria da informação estatística). A informação de Shannon não é realmente a mesma coisa que informação com significado. Informações com significado, codificadas em um idioma, podem ser medidas estatisticamente, por Shannon, mas a medida é a redundância dos símbolos, a chamada entropia de Shannon,[nota 2] não é uma medida do "conteúdo da informação", ou significado. Shannon, por exemplo, pode ser usado para medir o "conteúdo da informação" de um conjunto de símbolos aleatórios sem qualquer significado.

Informação freqüentemente não é definida.[7] Algumas definições relacionam o conceito de informação ao significado. Por sua vez, o significado de "significado" nunca foi devidamente explicado quando aplicado a processos do pensamento humano.[8] Algumas definições, caracterizações ou noções sobre a informação são encontradas na literatura ou na web, mas sem consenso. Algumas delas são:

Robert M. Losee;

A informação pode ser entendida de uma forma independente de domínio, como os valores dentro do resultado de qualquer processo.[9]

Winfried Nöth;

Informações em seu sentido cotidiano é um conceito qualitativo associado com significado e novidades.[10]

Ray Kurzweil;

Informação é uma sequência de dados que faz sentido em um processo, tal como o código de DNA de um organismo, ou os bits de um programa de computador.[11]

Gregory Bateson;

A informação é a diferença que faz a diferença.[12]

Valdemar W.Setzer[nota 3]

Informação é uma abstração informal (isto é, não pode ser formalizada através de uma teoria lógica ou matemática) que está na mente de uma pessoa, na forma de pensamentos, representando algo de grande significado para a pessoa. Note-se que esta não é uma definição, é uma caracterização, porque "mente", "pensamento", "alguma coisa", "significado" e "pessoa" não pode ser bem definido. Eu assumo aqui um entendimento intuitivo (ingênuo) desses termos.[13]

Wikipedia;

Informação, no seu sentido técnico mais restrito, é uma sequência de símbolos que podem ser interpretados como uma mensagem. As informações podem ser gravadas como sinais, ou transmitidas como sinais. A informação é qualquer tipo de evento que afeta o estado de um sistema dinâmico que pode interpretar a informação.[14]

Responda de alguns dos presentes nas palestras de Stephen Talbott para um grande público de bibliotecários;

É aquela coisa com que nós trabalhamos.[13]

Visões

Teoria da informação

Uma definição clara do conceito de “informação“ não pode ser encontrada em livros de teoria da informação.[15] Gibbs propõe, neste contexto, uma definição simples: ”Informação (I) é a quantidade de dados após a compressão de dados”.[15] Para Shannon, os aspectos semânticos da comunicação são irrelevantes para o problema de engenharia eo aspecto importante é que a mensagem real é uma retirada de um conjunto de mensagens possíveis.[16] De acordo com J. Z. Young, o conceito de informação num sistema, de acordo com Shannon, pode ser definido como aquela característica dela que permanece invariável sob recodificação.[17]

Semiótica

Tanto a teoria da informação quanto a semiótica estudam a informação, mas por causa de sua abordagem estritamente quantitativa, a teoria da informação tem um âmbito mais limitado.[10] Na semiótica, o conceito de informação está relacionada aos sinais. Um sinal é algo que pode ser interpretado como tendo um significado diferente de si mesmo, e portanto um veículo de informação para alguém capaz de descodificar o sinal. Os sinais podem ser considerados em termos de níveis inter-dependentes: pragmático, semântico, sintaxe, e empírico.

Dr. Werner Gitt propõe conceitualmente cinco diferentes níveis de informação[18]:

Nível Nome Transmissor Receptor Descrição
1 Estatística Sinal transmitido Sinal recebido Em nível estatístico, o significado é completamente ignorado. A este nível, a informação refere-se exclusivamente as propriedades estatísticas de sequências de símbolos.[18]
2 Sintaxe Código usado Código compreendido No nível sintático, aspectos lexicais e sintáticos são levados em conta. Informações dizem respeito a todas as propriedades estruturais do processo de criação de informação, os conjuntos reais de símbolos e as regras de sintaxe.[18]
3 Semântico Idéias comunicadas Significado compreendido No nível semântico, o significado é levado em conta. A informação concerne com o significado do pedaço de informação que foi transmitida. Cada pedaço de informação leva a uma fonte mental, a mente do remetente.[18]
4 Pragmática Ação esperada Ação implementada Ao nível pragmático, como a informação transmitida é usada na prática é tomado em conta. A informação implica sempre um aspecto pragmático. A informação é capaz de fazer com que o destinatário tome alguma ação.[18] A pragmática engloba também a contribuição do contexto para o significando.
5 Apobética[nota 4] Finalidade pretendida Resultado alcançado Ao nível apobético, a finalidade que o remetente tem com a informação transmitida é tomado em consideração. Cada bit de informação é intencional.[18] A este nível, devemos levar em conta o que a informação transmitida indica e implica.

Segundo Dr. Gitt, não existe nenhuma lei conhecida através da qual a matéria pode dar origem à informação.[18] Em seu artigo sobre as leis científicas de informação, publicado no Journal of Creation, Dr. Gitt afirma que a informação não é uma propriedade da matéria, é uma entidade não-material de modo que a sua origem é da mesma forma não explicável por processos materiais.[19] Dr. Gitt também aponta que o pré-requisito mais importante para a produção de informação é a própria vontade do remetente, de modo que as informações possam surgir somente através da vontade abrangendo intenção e propósito.[19] Gitt também aponta que, como a informação é nem formada de matéria (embora possa ser transportada em matéria) nem energia, constitui uma terceira quantidade fundamental do universo.

Biologia

É geralmente aceito que o significado da informação dado por Claude Shannon em sua teoria da informação matemática é relevante e legítimo em muitas áreas da biologia, mas nas últimas décadas, e mesmo antes, muitos biólogos têm aplicado os conceitos de informação em um sentido mais amplo. Eles vêem os processos mais básicos característicos dos organismos vivos sendo entendidos em termos de expressão de informação, a execução de programas, bem como a interpretação de códigos.[20] John von Neumann, afirmou que os próprios genes são claramente as partes de um sistema digital de componentes.[21] Muitos biólogos, especialmente os materialistas, veem essa tendência como tendo problemas fundamentais.[20]

De qualquer maneira, muitos cientistas em vários campos da ciência consideram os organismos vivos como tendo informação biológica. Gregory Chaitin, um renomado matemático argentino-americano e cientista da computação, vê o ADN como um programa de computador para o cálculo do organismo e a relação entre homem e mulher como uma forma de transmissão de informações biológicas a partir do primeiro ao último.[22] David Baltimore, biólogo americano e prêmio Nobel, afirmou que "A biologia moderna é uma ciência da informação".[23] Edmund Jack Ambrose, citado por Davis e Kenyon, afirmou que "Há uma mensagem, se a ordem de bases no DNA pode ser traduzida pela célula em alguma atividade essencial necessária para a sobrevivência ou a reprodução".[24] Richard Dawkins, um etólogo e biólogo evolucionista britânico, escreveu que a própria vida é o fluxo de um rio de ADN que ele também denomina um rio de informação.[25] Stephen Meyer aponta que produzir uma forma organismal requer a geração de informações, no sentido de Shannon. Mas ele vai mais longe ao observar que "como sentenças com significado ou linhas de código de computador, genes e proteínas também são especificados com relação à função."[26] Meyer ressalta que a informação contida no ADN tem um alto grau de especificidade. David Berlinski um filósofo americano, educador e autor, também traça um paralelo entre a biologia e a teoria da informação. Em seu livro "The Deniable Darwin & Other Essays" ele afirma que:

Qualquer outra coisa que um ser vivo possa ser...[ele] é também um sistema combinatório, sua organização controlada por um estranho, um texto oculto e obscuro, uma escrita em um código de bioquímica. É um algoritmo que está no cerne sussurrante da vida, transportando a informação de um conjunto de símbolos (ácidos nucleicos) para outro (as proteínas)[27]

O conceito do design inteligente de que o ADN exibe complexidade especificada foi desenvolvido pelo matemático e filósofo William Dembski. Dembski afirma que quando algo exibe complexidade especificada (ou seja, é complexo e especificado, simultaneamente) pode-se inferir que ele foi produzido por uma causa inteligente (isto é, que foi concebido), ao invés de ser o resultado de processos naturais (ver naturalismo).[2] Ele fornece os seguintes exemplos: "Uma única letra do alfabeto é especificada sem ser complexa. Uma frase longa de letras aleatórias é complexa sem ser especificada. Um soneto de Shakespeare é complexo e especificado."[28] Ele afirma que os detalhes de seres vivos podem ser caracterizados de forma semelhante, especialmente os "padrões" de sequências moleculares em moléculas biológicas funcionais, tais como o ADN.[2]

Dembski define uma probabilidade de 1 em 10150 como a "probabilidade universal ligada". O seu valor corresponde ao inverso do limite superior do "número total de possíveis eventos especificados ao longo da história cósmica," tal como calculado por Dembski. Ele define a informação especificada complexa (IEC) como informações especificadas com uma probabilidade inferior a esse limite. (Os termos "complexidade especificada" e "informação especificada complexa" são utilizados indiferentemente.) Ele argumenta que a IEC não pode ser gerada pelos mecanismos naturais conhecidos apenas das leis da física e do acaso, ou por sua combinação. Ele argumenta que isso é assim porque as leis só podem perder informações ou as mudar de lugar, mas não produzi-las, e o acaso pode produzir informação não especificada complexa ou informação especificada não complexa, mas não IEC; ele fornece uma análise matemática que, ele afirma, demonstra que as leis e o acaso trabalhando em conjunto, não podem gerar IEC, igualmente. Dembski e outros proponentes da ID afirmam que a IEC é melhor explicada como sendo devido a uma causa inteligente e por isso é um indicador confiável de design.[29]

Quantificando a informação

David Salomon afirma: "A informação parece ser uma dessas entidades que não podem ser definidas com precisão, não pode ser quantificada, e não pode ser tratada com rigor".[30] Salomon prossegue dizendo, no entanto, que, no campo da teoria da informação, a informação pode ser tratada quantitativamente.[30]

Entropia de Shannon

Em A Mathematical Theory of Communication (Uma Teoria Matemática da Comunicação) Shannon confere ao termo informação não só com significado técnico, mas também relativo à medida.[31] Shannon teorizou a ideia de medida quantitativa da informação e definiu uma quantidade chamada de auto-informação.[32] A auto-informação, denotada por i, associada com um evento A é dada por:

i(A) = -logbP(A)

onde P(A) é a probabilidade de que o evento A ocorrerá e b é a base escolhida do log. Se a unidade de informação é bits, usamos b=2 e assim por diante.[32]

A medição da informação, em termos matemáticos, tem que considerar o número de sinais, a sua probabilidade, e as restrições combinatórias.[10] A quantidade de informação transmitida por um sinal aumenta quanto mais é a sua raridade, e quanto mais freqüente é um sinal, menos informação este transmite.[10] É interessante notar que, ao passo que podemos quantificar a probabilidade de qualquer símbolo constante, não podemos usar nenhum número absoluto para quantificar o conteúdo de informação de uma determinada mensagem.[33]

Teoria de Chaitin-Kolmogoroff

Outra forma de medição do conteúdo de informação é a complexidade de Kolmogorov (também conhecida como informação Chaitin). A complexidade de Kolmogorov de uma cadeia de caracteres (string) é o comprimento da menor descrição possível da cadeia em alguma linguagem de descrição universal fixa (como a máquina de Turing). Seja x uma string binária e seja d(x) a menor string <M, i> alcançada pela concatenação de uma máquina de Turing M e uma entrada i para qual, a máquina de Turing para, deixando a cadeia x na fita.[34] A complexidade de Kolmogorov K(x) é:

K(x) = |d(x)|

ou seja, a complexidade de Kolmogorov é o comprimento da descrição mínima de x.[34] A complexidade pode ser vista como a medida da "falta de padrão" da seqüência, e pode ser equiparar com a idéia de aleatoriedade.[35] O comprimento da descrição mais curta dependerá da escolha da linguagem de descrição. A título de ilustração podemos comparar duas cadeias de caracteres:

"CREATIONWIKICREATIONWIKICREATIONWIKICREATIONWIKICREATIONWIKICREATIONWIKICREATIONWIKI" 

e

"7W7JAHAGLKJHGBNMZCXVSFQP92725FFADSHALKJNMZAQWSXPLÇKJHGTRFOUMSVAXZXCTEÇALSKDJFHGBEOQI" 

Ambas as cadeias têm o mesmo número de letras, mas a primeira pode ser representada de uma maneira mais compacta: "7 x 'CREATIONWIKI". Outra forma de representar a primeira seqüência está usando uma linguagem como esta "Pascal-like":

for i:=1 to m

write('CREATIONWIKI');

Este programa contém 34 caracteres ASCII (contando os espaços em branco e novas linhas) mais um caracter (o parâmetro: 7) (o valor da variável m neste caso específico). Para os outros valores de m o comprimento do programa em caracteres será 34 + log m. Uma maneira de medir a aleatoriedade da primeira sequência é a de formar a razão entre o comprimento do programa e o comprimento da cadeia.[36] Isto resulta na medida da aleatoriedade:

r ≤ (34 + log m)/(12m)

Da mesma forma que no caso anterior (Shannon), a complexidade de Kolmogorov não pode medir o significado das informações. Na verdade, mede a compressibilidade de uma dada sequência.

Aparecimento espontâneo

Um castelo de areia muito impressionante na praia perto de St Helier, em Jersey.

Manfred Eigen, Bernd Olaf-Küppers e John Maynard Smith e muitos outros biólogos afirmaram que a origem da informação é o problema central da biologia.[23] Alguns, como Manfred Eigen argumentam que é possível o surgimento espontâneo, estocástico, de informações a partir do caos.[37] Em seu livro Steps Towards Life Eigen afirma o que ele considera como o problema central enfrentado na investigação da origem da vida: "Nossa tarefa é encontrar um algoritmo, uma lei natural que leva à origem da informação".[38][nota 5] A. E. Wilder-Smith, em contraste, afirma que

Se a informação, como a entropia surgisse de forma estocástica, então a base da definição de informação de Shannon e Wiener seria inequívoca e completamente destruída.[37]

Wilder-Smith estabelece uma distinção entre informação real e potencial. A primeira nunca pode ser sintetizada por processos estocásticos, enquanto a segunda pode ser. Ele estabelece uma comparação entre a informação real e a neguentropia[nota 6] e, por outro lado, uma correspondência entre a informação potencial e entropia.[37] Wilder-Smith propõe um exemplo simples que esclarece a distinção entre a informação potencial e real. O potencial para fazer imagens de uma grande quantidade de pontos distribuídos aleatoriamente é infinito, embora um conjunto de pontos distribuídos aleatoriamente não vai mostrar na realidade, uma imagem que se parece com algo (por exemplo, uma bicicleta). Os pontos distribuídos aleatoriamente possuem a capacidade para quantidades infinitas de informações, mas nenhum se comunica por si só, por isso, de fato, não há nenhuma informação real.[37]

Lester e Bohlin também concordam com Wilder-Smith. Eles apontam que vários autores nos últimos anos têm estabelecido uma ligação entre o código genético presente na teoria do ADN e informação. A conclusão geral dos estudos é que a informação não pode surgir espontaneamente por processos mecânicos.[39]

Em seu livro A Case Against Accident and Self-Organization, Dean L. Overman constrói um argumento convincente de que a vida não é um acidente. Não é possível trazer todo o argumento do livro aqui. Overman coloca que uma distinção fundamental entre a matéria viva e não-viva é a existência de um genoma ou de um compósito de mensagens genéticas que transportam conteúdos de informação suficiente para replicar e manter o organismo.[40] A informação contida no código genético, tal como qualquer informação ou mensagem, não é feita de matéria. O significado do código genético não pode ser reduzido a uma propriedade física ou química.[40] O conteúdo de informação é o número mínimo de instruções necessárias para especificar a estrutura e, em sistemas vivos, conteúdo de informação requer uma quantidade enorme de instruções especificadas.[40] De acordo com Overman, muitos propuseram cálculos para a probabilidade de compostos orgânicos complexos, tais como enzimas, proteínas ou moléculas de ADN surgir por acaso. Muitos concluíram que esta probabilidade é extremamente baixa, praticamente uma impossibilidade.[40][nota 7]

O evolucionista Michael Denton escreveu o livro polêmico "Evolution: A Theory in Crisis". Em seu livro, escrevendo sobre a origem da vida, Denton afirma:

A incapacidade de dar uma explicação evolutiva plausível para a origem da vida lança uma série de sombras sobre todo o campo da especulação evolutiva.[41]

Devido às enormes chances contra a abiogênese na Terra, alguns cientistas voltaram-se para a hipótese da panspermia, a crença de que a vida começou fora deste planeta. Entre esses cientistas estão Francis Crick, Fred Hoyle, Svante Arrhenius, Leslie Orgel e Thomas Gold.[40][42]

Problema para a evolução

Conforme Jonathan Sarfati, a principal objeção científica para a evolução não é se as mudanças, seja qual for a sua extensão, ocorrem através do tempo. A questão-chave é a origem da enorme quantidade de genética que é necessária para que um micróbio venha a evoluir, em última análise, alcançar a complexidade dos seres humanos.[43] Dr. Lee Spetner salienta que, em organismos vivos, a adaptação muitas vezes ocorre através da redução da informação no genoma e observa que o olho dos vertebrados ou o seu sistema imunológico nunca poderia ter evoluído por perda de informação por si só.[44]

Vídeos

The Information Enigma

Notas

  1. Dr. Imre Simon, quem fez essa referência, foi um conhecido matemático e cientista da computação brasileiro de origem húngara.
  2. A entropia de Shannon é a imprevisibilidade média em uma variável aleatória, que é equivalente ao seu conteúdo de informação.
  3. Dr. Valdemar W.Setzer é um conhecido cientista da computação brasileiro. Ele é um dos signatários da lista chamada "A Scientific Dissent From Darwinism". Encontrado em: A Scientific Dissent from Darwinism (List). Página visitada em 31 de julho de 2013.
  4. O termo "apobética" foi introduzido pelo Dr. Werner Gitt em 1981 para expressar o aspecto teleológico da informação, a questão da finalidade. A palavra é derivada do Grego: αποβαίνων, apobeinon que significa resultado, sucesso, conclusão, conseqüência. Encontrado em Gitt, Werner. In the Beginning was Information: A Scientist Explains the Incredible Design in Nature. Green Forest, AR: Master Books, 2005. p. 77. ISBN 978-0-89051-461-0
  5. O livro do Eigen citado por Dembski é Eigen, Manfred. Steps Towards Life: A Perspective on Evolution. Oxford: Oxford University Press, 1992. p. 12. ISBN 0-19854751-X
  6. Neguentropia, também entropia negativa ou sintropia de um sistema vivo é a entropia que este exporta para manter a sua própria entropia baixa.
  7. Sir Fred Hoyle e Chandra Wickramasinghe calcularam a probabilidade do aparecimento das diferentes enzimas se formando em um lugar ao mesmo tempo para produzir uma única bactéria em 1 em cada 1040,000. Hubert Yockey calculou a probabilidade do aparecimento da iso-l-citocromo c aleatoriamente como sendo 2 x 10-44. Walter L. Bradley e Charles B. Thaxton calcularam a probabilidade de uma formação aleatória de aminoácidos numa proteína como sendo 4.9 x 10-191. Harold Morrison obteve em seus cálculos o impressionante número de 1 em 10100,000,000,000 para uma única bactéria unicelular desenvolver a partir de processos acidentais ou ao acaso. Como citado por Overman no livro: Overman, Dean L. A Case Against Accident and Self-Organization. Lanham: Rowman & Littlefield Publishers, 1997. p. 33-102. ISBN 0-8476-8966-2

Referências

  1. Simon, Imre. MAC 333 - A Revolução Digital e a Sociedade do Conhecimento - Tema 11 - O que é Informação? Como ela age?. Página visitada em Julho 31, 2013.
  2. 2,0 2,1 2,2 Dembski, William A. (15 de novembro de 1998). Intelligent Design as a Theory of Information. Access Research Network.
  3. Sarfati, Jonathan. The Greatest Hoax on Earth?:Refuting Dawkins on Evolution. Atlanta, Georgia: Creation Book Publishers, 2010. p. 43. ISBN 978-0-949906-73-1
  4. Spetner, Lee M. Not by Chance!. Brooklyn, New York: The Judaica Press, 1998. Capítulo: 5-Can Random Variation Build Information?, p. 127-160. ISBN 1-880582-24-4
  5. 5,0 5,1 Truman, Royal. (2012). "Information Theory-Part 1:Overview of Key Ideas". Journal of Creation 26 (3): 101-106. ISSN 1036-2916.
  6. Meyer, Stephen C. Darwin's Doubt: The Explosive Origin of Animal Life and the Case for Intelligent Design. Seattle, WA: HarperOne, 2013. p. 164-168. ISBN 978-0-06-207147-7
  7. M. Buckland. (Spring 1997). "Information" and Other Words. Página visitada em 31 de julho de 2013.
  8. Lindsay, Robert K. In: Feigenbaum, Edward A.; Feldman, Julian. Computers & Thought. Menlo park, Cambridge, London: AAAI Press/The MIT Press, 1995. Capítulo: Inferential Memory as the Basis of Machines Which Understand Natural Language, p. 218. ISBN 0-262-56092-5
  9. Losee, Robert M.. (1997). "A Discipline Independent Definition of Information". Journal of the American Society for Information Science 48 (3): 254–269. ISSN 1532-2890.
  10. 10,0 10,1 10,2 10,3 Nöth, Winfried. Handbook of Semiotics. Indiana: Indiana University Press, 1995. ISBN 0-253-20959-5
  11. Kurzweil, Ray. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. New York: Penguin Books, 2000. p. 30. ISBN 0-14-028202-5
  12. Barlow, John Perry. The Economy of Ideas: A framework for patents and copyrights in the Digital Age. (Everything you know about intellectual property is wrong.). Página visitada em 31 de julho de 2013.
  13. 13,0 13,1 Setzer, Valdemar W.. Data, Information, Knowledge and Competence. Página visitada em 31 de julho de 2013.
  14. Information. Wikipedia. Página visitada em 31 de julho de 2013.
  15. 15,0 15,1 Lin, Shu-Kun. (2008). "Gibbs Paradox and the Concepts of Information, Symmetry, Similarity and Their Relationship". Entropy 10 (1): 1-5.
  16. Shannon, Claude E.; Weaver, Warren. The Mathematical Theory of Communication. Illinois: Illini Books, 1949. p. 1. Library of Congress Catalog Card nº 49-11922
  17. Young, J. Z. In: Huxley, Julian; Hardy, A. C.; Ford, E. B. Evolution as a Process. 2ª ed. New York, N. Y.: Collier Books, 1963. Capítulo: Memory, Heredity and Information, p. 326-346.
  18. 18,0 18,1 18,2 18,3 18,4 18,5 18,6 Gitt, Werner. In the Beginning was Information: A Scientist Explains the Incredible Design in Nature. Green Forest, AR: Master Books, 2005. p. 49-87. ISBN 978-0-89051-461-0
  19. 19,0 19,1 Gitt, Werner. (2009). "Scientific Laws of Information and Their Implications-Part 1". Journal of Creation 23 (2): 96-102. ISSN 1036-2916.
  20. 20,0 20,1 Biological Information. Stanford Encyclopedia of Philosophy (4 de outubro de 2007). Página visitada em 2 de agosto de 2013.
  21. The Computer and the Brain. 2ª ed. New Haven and London: Yale University Press, 2000. p. 69. ISBN 0-300-08473-0
  22. Chaitin, Gregory. Meta Math!: The Quest for Omega. New York: Vintage Books, 2005. p. 66-74. ISBN 978-1-4000-7797-7
  23. 23,0 23,1 Dembski, William A.; Witt, Jonathan. Intelligent Design Uncensored: An Easy-to-Understand Guide to the Controversy. Downers Grove, Illinois: InterVarsity Press. p. 72-73. ISBN 978-0-8308-3742-7
  24. Davis, Percival; Kenyon, Dean H. Of Pandas and People: The Central Question of Biological Origins. 2ª ed. Dallas, Texas: Haughton Publishing Company. p. 64. ISBN 0-914513-40-0
  25. Dawkins, Richard. River Out of Eden. New York: Basic Books, 1995. p. 4. ISBN 978-0-465-06990-3
  26. Meyer, Stephen C. In: Dembski, William A. Darwin's Nemesis: Philip Johnson and the Intelligent Design Movement. Downers Grove, IL: Inter-Varsity Press, 2006. Capítulo: 12-The Origin of Biological Information and the Higher Taxonomic Categories, p. 178-179. ISBN 978-0-8308-2836-4
  27. Berlinski, David. The Deniable Darwin and Other Essays. Seattle: [s.n.], 2010. p. 153. ISBN 978-0-979014-12-3
  28. Dembski, William A. (13 de setembro de 1999). Explaining Specified Complexity. Apareceu como Metaviews 139 (www.meta-list.org).
  29. Dembski, William A.. No Free Lunch: Why Specified Complexity Cannot Be Purchased without Intelligence. [S.l.]: Rowman & Littlefield Publishers Inc., 2001. ISBN 0742512975
  30. 30,0 30,1 Salomon, David. Coding for Data and Computer Communications. New York: Springer, 2005. p. 59. ISBN 0-387-21245-0
  31. Salomon, David. Data Compression: The Complete Reference. 2ª ed. New York: Springer, 2000. p. 279. ISBN 0-387-95045-1
  32. 32,0 32,1 Sayood, Khalid. Introduction to Data Compression. 2ª ed. San Francisco: Morgan Kaufmann Publishers, 2000. p. 13-14. ISBN 1-55860-558-4
  33. Nelson, Mark; Gailly, Jean-Loup. The Data Compression Book. 2ª ed. New York: M&T Books, 1996. p. 14. ISBN 1-55851-434-1
  34. 34,0 34,1 Sipser, Michael. Introduction to the Theory of Computation. Boston: PWS Publishing Company, 1997. p. 214-215. ISBN 0-534-94728-X
  35. Knuth, Donald. The Art of Computer Programming: Seminumerical Algorithms. 2ª ed. Reading, Massachusetts: Addison-Wesley Publishing Company, 1981. p. 163-166. vol. 2. ISBN 0-201-03822-6
  36. Dewdney, A. K. The New Turing Omnibus: 66 Excursions in Computer Science. New York: A. W. H. Freeman/Owl Books, 1993. Capítulo: 8-Random Numbers: The Chaitin-Kolmogoroff Theory, p. 49-55. ISBN 978-0-8050-7166-5
  37. 37,0 37,1 37,2 37,3 Wilder-Smith, A. E.. The Scientific Alternative to Neo-Darwinian Evolutionary Theory. Costa Mesa, California: The Word For Today Publishers, 1987. p. 23-51. ISBN 0-936728-1B
  38. Dembski, William A. Intelligent Design:The Bridge Between Science & Theology. Downers Grove, Illinois: IVP Academic, 1999. p. 153-183. ISBN 0-8308-2314-X
  39. Lester, Lane P; Bohlin, Raymond G. The Natural Limits to Biological Change. 2ª ed. Dallas: Probe Books, 1989. p. 157. ISBN 0-945241-06-2
  40. 40,0 40,1 40,2 40,3 40,4 Overman, Dean L. A Case Against Accident and Self-Organization. Lanham: Rowman & Littlefield Publishers, 1997. p. 33-102. ISBN 0-8476-8966-2
  41. Denton, Michael. Evolution: A Theory in Crisis. Chevy Chase, MD: Adler & Adler, 1985. p. 271. ISBN 0-917561-52-X
  42. Shapiro, Robert. Origins: A Skeptic´s Guide to the Creation of Life on Earth. Toronto: Bantam Books, 1987. p. 226-227. ISBN 0-553-34355-6
  43. Sarfati, Jonathan. The Greatest Hoax on Earth?:Refuting Dawkins on Evolution. Atlanta, Georgia: Creation Book Publishers, 2010. p. 43. ISBN 978-0-949906-73-1
  44. Spetner, Lee M. Not by Chance!. Brooklyn, New York: The Judaica Press, 1998. Capítulo: 5-Can Random Variation Build Information?, p. 127-160. ISBN 1-880582-24-4

Ligações externas