Utilizando métodos estatísticos para modelar o ajuste fino de máquinas e sistemas moleculares.

 https://www.sciencedirect.com/science/article/pii/S0022519320302071 


https://doi.org/10.1016/j.jtbi.2020.110352Obtenha direitos e conteúdo.
Sob licença Creative Commons
Acesso aberto
Referido por
Revista de Biologia Teórica, Volume 507, 21 de dezembro de 2020, Páginas 110457
Joseph Lachance, Corinne N. Simonti, Joshua S. Weitz
Ver PDF
Revista de Biologia Teórica, Volume 506, 7 de dezembro de 2020, Páginas 110456
Denise Kirschner, Mark Chaplain, Akira Sasaki
Ver PDF

Destaques

  • Os métodos estatísticos são apropriados para modelar o ajuste fino.
  • O ajuste fino é detectado em proteínas funcionais, redes celulares, etc.
  • As constantes e as condições iniciais da natureza são ajustadas deliberadamente.
  • Análise estatística do modelo de ajuste fino em algumas categorias de projeto.
  • O ajuste fino e o projeto merecem atenção na comunidade científica.

Resumo

O conceito de ajuste fino tem recebido muita atenção na física, e afirma que as constantes fundamentais da física são ajustadas com precisão para uma química rica e para a permissividade da vida. Ainda não foi aplicado de forma abrangente à biologia molecular. No entanto, neste artigo, argumentamos que os sistemas biológicos apresentam ajuste fino em diferentes níveis, como proteínas funcionais, máquinas bioquímicas complexas em células vivas e redes celulares. Este artigo descreve o ajuste fino molecular, como ele pode ser usado em biologia e como desafia o pensamento darwiniano convencional. Também discutimos os métodos estatísticos que fundamentam o ajuste fino e apresentamos uma estrutura para tal análise.

Palavras-chave

Bayesiano
Afinação
Complexidade
Projeto
Seleção de modelo
Especificidade

1. Introdução

O ajuste fino tem recebido muita atenção na física , e muitos estudos foram realizados desde que Brandon Carter apresentou seus primeiros resultados na conferência em homenagem ao 500º aniversário de Copérnico ( Carter, 1974 ). Luke Barnes publicou um bom artigo de revisão sobre o ajuste fino do universo ( Barnes, 2012 ), e Lewis e Barnes escreveram um livro atualizado (2016). Isso naturalmente levanta a questão de se é apropriado introduzir e abordar o ajuste fino também na biologia.
O termo ajuste fino é usado para caracterizar a sensibilidade de funções ou propriedades aos valores de certos parâmetros (cf. Friederich, 2018 ). Embora os dispositivos tecnológicos sejam produtos finamente ajustados pelos engenheiros e fabricantes que os projetaram e construíram, neste artigo consideramos suficiente apenas a sensibilidade em relação aos valores de certos parâmetros ou condições iniciais. Definimos ajuste fino como um objeto com duas propriedades: deve a) ser improvável que tenha ocorrido por acaso, sob a distribuição de probabilidade relevante (ou seja, complexo), e b) estar em conformidade com uma especificação independente ou separada (ou seja, específico).
A noção de design também é amplamente utilizada tanto na ciência histórica quanto na contemporânea ( Thorvaldsen e Øhrstrøm, 2013 ). O conceito precisará de uma descrição para seu uso em nosso contexto. Um design é uma especificação ou plano para a construção de um objeto ou sistema, ou o resultado dessa especificação ou plano na forma de um produto. O próprio termo design vem da palavra latina medieval “designare” (que significa “marcar, apontar, escolher”); de “de” (para fora) e “signum” (marca identificadora, sinal). Portanto, um aviso público que anuncia algo ou fornece informações. O design geralmente precisa satisfazer certos objetivos e restrições. Espera-se também que ele interaja com um determinado ambiente e, assim, seja realizado no mundo físico. Os seres humanos têm uma poderosa compreensão intuitiva do design que precede a ciência moderna. Nossas intuições comuns invariavelmente começam com o reconhecimento de um padrão como uma marca de design. O problema é que nossas intuições sobre design têm sido pouco refinadas e pré-teóricas. Por essa razão, é pertinente questionarmos se é possível inverter essa disparidade e fundamentar essas intuições vagas e pré-teóricas em uma base científica sólida.
O ajuste fino e o projeto são entidades relacionadas. O ajuste fino é um método ascendente (bottom-up), enquanto o projeto se assemelha mais a uma abordagem descendente (top-down). Portanto, neste artigo, focamos no tema do ajuste fino e abordamos as seguintes questões: É possível reconhecer o ajuste fino em sistemas biológicos nos níveis de proteínas funcionais, grupos de proteínas e redes celulares? O ajuste fino em biologia molecular pode ser formulado utilizando métodos estatísticos de última geração , ou os argumentos são apenas subjetivos?

2. Métodos estatísticos

O mundo real é complexo, e os modelos científicos precisam lidar com ele simplificando as coisas, aproximando-as e focando em alguns aspectos de uma investigação estrutural ou numérica, ou seja, nos aspectos que nos interessam. Os modelos matemáticos têm se mostrado inestimáveis ​​em diversas áreas da ciência e da engenharia ( Quarteroni, 2009 ). Em biologia, eles fornecem abstrações estruturadas que permitem o estudo do projeto, da organização e da evolução de sistemas biológicos. Sempre que usamos a matemática para estudar algum fenômeno observacional, devemos essencialmente começar construindo um modelo determinístico ou estocástico para representar o fenômeno, que são os dois principais tipos de estrutura matemática usados ​​na ciência.
Para um grande número de situações, o modelo matemático determinístico será suficiente. No entanto, existem também muitos fenômenos que requerem um modelo matemático diferente para sua investigação, os modelos estocásticos (frequentemente chamados de probabilísticos). Um modelo é estocástico quando é capaz de representar diferentes escolhas e fornecer informações sobre a probabilidade dessas escolhas. Ele difere dos modelos determinísticos , nos quais as condições determinam o resultado final e nenhuma escolha é representada. A aleatoriedade de um modelo estocástico é epistêmica ou ontológica. A aleatoriedade epistêmica representa nossa falta de conhecimento dentro de uma estrutura determinística, enquanto a aleatoriedade ontológica corresponde a uma incerteza mais fundamental. Mesmo que todas as condições iniciais de um experimento fossem conhecidas, um modelo com aleatoriedade ontológica ainda forneceria apenas probabilidades para uma gama de possíveis resultados observáveis ​​( Coffman, 2014 ).
Para resumir todas as maneiras possíveis de escolher o resultado de um modelo estocástico, com diferentes probabilidades, utiliza-se uma distribuição. Essa distribuição (ou verossimilhança) geralmente envolve alguns parâmetros desconhecidos (como a média ou o desvio padrão). Cada configuração possível de parâmetros dá origem a um modelo estocástico diferente. O conjunto de todos esses modelos estocásticos é geralmente denominado modelo estatístico . O objetivo da inferência estatística não é prever a aleatoriedade de um modelo estatístico (seja epistêmico ou ontológico). O melhor que podemos fazer é inferir (ou estimar/testar) os valores dos parâmetros desconhecidos e, com base nessa estimativa, as probabilidades de um determinado evento.que representa um conjunto específico de resultados possíveis.
Na modelagem estatística, existem duas tradições principais para isso: as escolas Frequentista e Bayesiana (ver Figura 1 ) que diferem na forma como tratam os parâmetros. Os Frequentistas geralmente consideram os parâmetros fixos, mas desconhecidos. As probabilidades são interpretadas como a fração de vezes que um evento ocorre, caso seja possível repetir um experimento um grande número de vezes sob circunstâncias idênticas. Os Bayesianos, por sua vez, atribuem distribuições de probabilidade aos parâmetros, de acordo com uma distribuição a priori, que representa crenças subjetivas ou conhecimento prévio. Em qualquer caso, há uma continuidade modelada entre passado e presente na estatística Bayesiana , uma vez que novas observações são usadas para atualizar crenças subjetivas ou conhecimento prévio em uma distribuição a posteriori , de acordo com a Regra de Bayes. Consequentemente, a distribuição a posteriori também leva em consideração os resultados observados do experimento. Um Bayesiano fala da probabilidade de um parâmetro ou de uma teoria.Enquanto um frequentista convicto só pode falar da consistência das evidências com o parâmetro ou a teoria, por meio de testes de hipóteses ou intervalos de confiança. Embora haja uma diferença filosófica fundamental entre as abordagens frequentista e bayesiana , muitos estatísticos utilizam ambos os modelos, dependendo do tipo de problema que estudam.
  1. Baixar: Baixar imagem em alta resolução (523 KB)
  2. Baixar: Baixar imagem em tamanho real
A estatística não paramétrica é uma forma de eliminar as suposições sobre a distribuição dos resultados de um modelo estocástico. O termo, na verdade, é um equívoco, visto que infinitos (ou um número muito grande de) parâmetros são usados ​​nesses tipos de modelos para representar a maior incerteza sobre a distribuição dos dados, de modo que os dados, em grande medida, "falem por si mesmos". Embora a estatística não paramétrica tenha sido desenvolvida inicialmente em um contexto frequentista, ela também é consistente com uma abordagem bayesiana.
A estatística bayesiana foi pioneira graças ao trabalho de Thomas Bayes (que introduziu a Regra de Bayes) e Pierre-Simon Laplace. Foi a visão predominante da estatística ao longo do século XIX. Posteriormente, por meio do trabalho de Ronald Fisher, Jerzy Neyman, Egon Pearson e outros, a estatística frequentista passou a dominar durante a maior parte do século XX. Mais recentemente, a estatística bayesiana tem experimentado um crescimento, em grande parte devido ao desenvolvimento de métodos de simulação eficazes, como o método de Monte Carlo via Cadeias de Markov (MCMC) e a Computação Bayesiana Aproximada (ABC), que permitem o estudo de modelos complexos dentro de uma estrutura bayesiana ( Berger, 1985 ; Lehmann e Casella, 1998 ; Gilks ​​et al., 1996 ).
Ambas as escolas possuem históricos impressionantes de aplicações bem-sucedidas. A estatística frequentista clássica é particularmente adequada para experimentos repetíveis e planejados. Seu histórico é mais extenso porque inúmeros resultados, adaptados a esses métodos, foram obtidos com calculadoras mecânicas e tabelas impressas de funções de distribuição estatística específicas. Os métodos bayesianos têm se mostrado altamente eficazes na análise de informações naturalmente amostradas sequencialmente (como radar e sonar). Eles também têm sido aplicados em áreas tão diversas quanto filosofia, religião e ciências sociais, por exemplo, para analisar processos complexos de tomada de decisão , nos quais debates e outros tipos de interações sociais são levados em consideração ( Korb, 2003 ; Colin e Urbach, 2006 ; Chen et al., 2010 ; Chandler e Harrison, 2012 ).
Uma tarefa comum na comprovação do ajuste fino é demonstrar que um determinado eventoé muito improvável que ocorra por acaso, ou seja, mostrar que a probabilidadeA prevalência desse evento é pequena. Normalmente,é uma classificação ; que uma observação existente é refinada. Mas também é possível quecorresponde a uma observação futura sendo refinada, uma previsão . Independentemente deRepresenta uma classificação ou uma previsão; um modelo estocástico (II ou IV na Fig. 1 ) pode ser usado para determinar a probabilidade.
(1)
para cada valor de parâmetro, somando as probabilidades de todos os resultados incluídos em. Uma vez que o parâmetroGeralmente é desconhecido, sendo necessário estimá-lo a partir de dados.
Com uma abordagem frequentista, uma estimativa pontual.é utilizado, e isso leva a uma estimativa
(2)
da prevalência. Para quantificar a incerteza de (2) , um frequentista poderia traduzir uma região de confiança de valores possíveis deem um intervalo de confiança de valores possíveis dePor outro lado, um bayesiano considera o parâmetro como aleatório e calcula uma distribuição posterior do parâmetro, combinando a distribuição a priori e a verossimilhança de acordo com a Regra de Bayes, ou seja,Isso leva a uma estimativa .
(3)
da prevalência. Para avaliar a incerteza de (3) , um Bayesiano pode traduzir a distribuição posterior do parâmetro.em uma distribuição posterior da prevalênciaPara modelos complexos, independentemente de se utilizar uma abordagem frequentista ou bayesiana, é comum queé desconhecido para todos os valoresdo parâmetro. Nesse caso, normalmente se calcula uma estimativa.dee então o insere em (2) ou (3).
A equação (1) é, na verdade, consistente também com um modelo determinístico (I ou III na Fig. 1 ), comigual a 1 ou 0, dependendo se o evento observadoé consistente com a teoriaou não. Em particular, existe uma forma de raciocínio denominada raciocínio abdutivo (cf. III da Fig. 1 ) ou inferência para a melhor explicação ( Walton, 2001 ). Uma explicação é uma história.sobre um eventoque ocorreu, e esse tipo de inferência explicativa desempenha um papel central, tanto na vida cotidiana quanto na ciência contemporânea. A abdução foi introduzida por Charles Peirce como uma forma de inferência lógica que começa com um conjunto de observações.e busca encontrar a explicação mais simples e provável para as observações. Peirce considerou isso um tópico de lógica, mas não como lógica formal ou matemática . Ciência da computação, sistemas especialistas e pesquisa em inteligência artificial frequentemente empregam abdução. Em nossa estrutura, ela pode ser vista como um procedimento de escolha da hipótese ou teoria.que melhor explica os dados disponíveis, com base em algum princípio orientador. Esse processo produz uma conclusão plausível, mas não a verifica positivamente. Ernan McMullin (1992) chega a se referir à abdução como “a inferência que faz a ciência”.
Embora a versão original da abdução não fosse estocástica, ainda se considera um resultado plausível como relativamente provável de ser verdadeiro, em comparação com hipóteses concorrentes , dado o conhecimento prévio. Na Figura 1 III, isso significaria que todas as hipóteses, teorias, explicações ou valores de parâmetros prováveis ​​geram resultados deterministicamente dentro do evento observado., ou sejaNos últimos anos, vários estatísticos têm se interessado por uma versão mais matemática da abdução, de natureza probabilística, com a inferência Bayesiana como um caso especial ( Douven e Wenmackers, 2017 ). Alguns autores argumentam que a abdução não só é compatível com o Bayesianismo , como também o complementa de forma muito necessária ( Douven, 2017 ). Isso leva a uma visão probabilística da abdução, na qual eventos passados ​​são analisados ​​por meio de um modelo Bayesiano estocástico (II), com uma distribuição sendo atribuída a todas as teorias ou explicações possíveis. O analista deve então atribuir uma probabilidade a priori a todas as explicações possíveis, usando algum critério como simplicidade ou abrangência. A verossimilhança, por outro lado, descreve a distribuição dos resultados para cada explicação possível e, assim, quantifica se uma teoria explica bem ou não o evento observado. Em princípio, também podemos enquadrar a abdução em uma estrutura frequentista (IV), na qual todas as explicações são tratadas como fixas. Pode-se argumentar, no entanto, que uma abordagem frequentista é menos atraente, visto que o evento passado ocorreu apenas uma vez, enquanto a verossimilhança, dentro de uma estrutura frequentista, envolve probabilidades que requerem uma suposição hipotética de como o resultado se apresentaria se o experimento fosse repetido (um contrafactual). Com uma abordagem bayesiana, há mais liberdade na modelagem da distribuição de contrafactuais e, portanto, da verossimilhança. Quando um evento passado é observado antes do início do estudo, os estatísticos se referem a ele como um estudo observacional . É sabido que, às vezes (mas nem sempre), a verossimilhança de tal estudo precisa ser ajustada para levar em conta a forma como o evento passado foi observado, também dentro de uma abordagem bayesiana ( Rosenbaum, 2010 ). Um experimento planejado, por outro lado, é elaborado antes que os resultados ocorram, e então a verossimilhança simplesmente descreve a aleatoriedade envolvida no experimento.

3. Alguns antecedentes históricos do ajuste fino

O bioquímico Lawrence Henderson (1878–1942), da Universidade de Harvard, escreveu um dos primeiros livros a explorar os conceitos de ajuste fino no universo ( Henderson, 1913 ). Ele discute a importância da água e do meio ambiente para os seres vivos, argumentando que a vida depende inteiramente das condições ambientais muito específicas da Terra, particularmente no que diz respeito à abundância e às propriedades da água.
Na década de 1970, o astrofísico Brandon Carter trabalhou em uma espécie de análise contrafactual da cosmologia, questionando: suponha que as leis da física fossem um pouco diferentes do que são na realidade, quais seriam as consequências? ( Davies, 2006 ). Carter foi o primeiro a nomear e empregar o termo Princípio Antrópico em sua importante contribuição para a conferência de 1973 na Polônia, em homenagem ao 500º aniversário de Copérnico. Para sua surpresa, descobriu-se que muitos dos parâmetros necessários para a existência de vida em nosso universo devem se enquadrar em margens muito estreitas, ou o universo não existiria ou não seria capaz de sustentar a vida. Em sua palestra, Carter derivou o Princípio Antrópico (PA) em reação ao Princípio Copernicano, que afirma que os humanos não ocupam uma posição privilegiada no universo. Como Carter disse no aniversário de Copérnico:
“Embora nossa situação não seja necessariamente central, ela é inevitavelmente privilegiada em certa medida” ( Carter, 1974 ).
As chances de o universo ser propício à vida são tão infinitesimais que são incompreensíveis e incalculáveis.
Dito isto, cabe também observar que existe uma crítica ao Princípio Antrópico, conhecida como Princípio Antrópico Fraco (PAF). O PAF afirma que somente em um universo que sustenta a vida haverá seres vivos capazes de observá-la. Na terminologia da Seção 2 , dizemos que o ato de descobrir que vivemos em um universo que permite a vida faz parte de um estudo observacional e, portanto, precisamos modificar a probabilidade de acordo. Embora haja alguma verdade nessa objeção ao Princípio Antrópico, ela também é problemática. De fato, se aplicarmos o princípio do PAF consistentemente a outras situações em que descobrimos padrões regulares ou inesperados, nunca deveríamos ser capazes de inferir ajuste fino ou design como explicação. O filósofo John Leslie ilustra o caso de uma pessoa que sobrevive inesperadamente a um ataque de fuzilamento. Ele pode então inferir que todos os disparos erraram o alvo deliberadamente (por causa de alguém que planejou isso) ou não? ( Leslie, 1989 ).
É difícil dar uma resposta definitiva sobre o número de parâmetros de ajuste fino. Com base nos itens discutidos no livro clássico de Barrow e Tiplers (1988), existem cerca de 100, e o astrônomo real Martin Rees lista seis constantes adimensionais que proporcionam um ajuste fino geral ao universo ( Rees, 1999 ). O universo finamente ajustado é como um painel que controla os parâmetros do universo com cerca de 100 botões que podem ser ajustados para determinados valores. No contexto da Seção 2 , o parâmetroé um vetor com 100 componentes (os botões), o espaço amostralé o conjunto de todos os universos possíveis (incluindo a ausência total de universo), enquantoé o conjunto de universos possíveis, ou o conjunto daqueles universos possíveis que também são habitáveis. Se você girar qualquer botão um pouco para a direita ou para a esquerda, o resultado será um universo inóspito à vida ou nenhum universo. Se o Big Bang tivesse sido um pouco mais forte ou mais fraco, a matéria não teria se condensado e a vida nunca teria existido. As probabilidades contra o desenvolvimento do nosso universo eram "enormes" – e, no entanto, aqui estamos, um ponto que se equipara a implicações religiosas, como expressou Brian Schmidt, da Universidade Nacional da Austrália:
Como uma fuga de Bach, o Universo possui uma bela elegância, governado por leis cuja precisão matemática é dosada ao metrônomo do tempo. Essas equações da física são finamente equilibradas, com as constantes da natureza que as sustentam ajustadas a valores que permitem que nosso notável Universo exista de uma forma que nós, a humanidade, possamos estudar. Uma ligeira mudança nessas constantes e, num passe de mágica, num sopro de experimentação mental, temos um cosmos onde os átomos deixam de existir ou onde os planetas são incapazes de se formar. Parece que somos verdadeiramente afortunados por fazer parte do Nosso Universo ( Lewis e Barnes, 2016 , p. xi).
O que Brian Schmidt chama de "experimento mental" é frequentemente denominado "multiuniversos", ou seja, uma enorme quantidade de universos, cada um ligeiramente diferente do outro. Há uma diferença sutil entre o conjunto de universos possíveis .A teoria do multiverso, mencionada anteriormente (da qual presume-se a existência de uma), e a teoria do multiverso, que defende que alguns ou todos esses universos existem em paralelo. Essa hipótese do multiverso não possui qualquer respaldo empírico e pode ser considerada uma ideia bastante especulativa.
Um argumento probabilístico pressupõe conhecimento adequado dos limites do espaço de possibilidades. Pressupõe que o conhecimento atual forneça uma descrição estatística precisa e imparcial, ou meios de determinar, o que pode ou não acontecer por acaso. Como argumentaram Colyvan et al., 2005 , e Dembski, 2014 , o argumento do ajuste fino para o nosso universo não é um argumento estritamente estatístico, uma vez que envolve características que precisam estar presentes antes que se possa dizer que o universo existe e opera. E não há como atribuir uma distribuição de probabilidade como referência associada ao universo nesse estágio inicial. As probabilidades para a formação inicial do universo são, por sua natureza, independentes dos processos conhecidos que operam em nosso universo atual, ou seja, “probabilidades mentais”.
William Dembski, que pertence principalmente à escola frequentista em estatística , considera o argumento do ajuste fino como sugestivo, indicando um projeto subjacente. Podemos descrever essa inferência como raciocínio abdutivo ou inferência para a melhor explicação. Esse raciocínio leva a uma conclusão plausível que é relativamente provável de ser verdadeira, em comparação com hipóteses concorrentes , dado o nosso conhecimento prévio. No caso do ajuste fino do nosso cosmos, o projeto é considerado uma explicação melhor do que um conjunto de multiuniversos que carece de qualquer evidência empírica ou histórica. Se a existência/habitabilidade de um universo decorre deterministicamente das condições iniciais ajustadas com precisão, essa abordagem frequentista leva a um modelo para o universo físico que é essencialmente determinístico (cf. III da Fig. 1 ). Uma abordagem bayesiana , por outro lado, corresponde a um modelo com resultados determinísticos para cada parâmetro, mas a aleatoriedade ainda entra na escolha dos parâmetros (cf. I da Fig. 1 ).
Como observado na Seção 2 , um tipo mais geral de raciocínio abdutivo está intimamente relacionado a um modelo estocástico Bayesiano. Aplicando métodos da estatística Bayesiana , diversos autores formularam uma conclusão mais robusta do que a de Dembski. Robin Collins (2012) , Richard Swinburne (2012) , Palonen (2008) e Palonen (2017) apresentam a descrição mais completa e atualizada do argumento, concluindo que a possível existência de um multiverso não diminui significativamente a força do argumento do ajuste fino para a existência de um design. O principal argumento de suas análises Bayesianas é que, mesmo sob a hipótese de um multiverso, devemos usar a proposição "este universo é finamente ajustado" como dado, mesmo que não conheçamos o "verdadeiro estado" do nosso universo. Uma vez que as hipóteses de multiverso não predizem o ajuste fino para este universo em particular melhor do que a hipótese de um único universo, conclui-se que as hipóteses de multiverso não são explicações plausíveis para o ajuste fino. Portanto, nossos dados sobre o ajuste fino cósmico não oferecem suporte às hipóteses do multiverso. Para a física em geral, independentemente da existência ou não de um multiverso, a consequência racional da discussão acima é que devemos preferir as teorias que melhor preveem (para este ou qualquer universo) os fenômenos que observamos em nosso universo.
Uma das descobertas surpreendentes da biologia moderna foi que a célula opera de maneira semelhante à tecnologia moderna, enquanto a informação biológica é organizada de forma similar a um texto simples. Palavras e termos como “código de sequência”, “informação” e “máquina” provaram ser muito úteis para descrever e compreender a biologia molecular ( Wills, 2016 ). Os blocos de construção básicos da vida são as proteínas, longas moléculas em forma de cadeia compostas por diversas combinações de 20 aminoácidos diferentes . Máquinas bioquímicas complexas são geralmente compostas por muitas proteínas, cada uma dobrada e configurada em uma estrutura tridimensional única, dependente da sequência exata dos aminoácidos dentro da cadeia. As proteínas empregam uma grande variedade de dobras para desempenhar sua função biológica , e cada proteína possui uma forma altamente específica com algumas pequenas variações.
Na década de 1990, uma enorme quantidade de publicações e anais de congressos começou a surgir, com o livro "Evidence of Purpose" (Evidência de Propósito), editado por Sir John Marks Templeton com artigos de 10 cientistas renomados, sendo um dos primeiros ( Templeton, 1994 ). Michael Behe ​​e outros apresentaram ideias de design em biologia molecular e publicaram evidências de "máquinas bioquímicas irredutivelmente complexas" em células vivas. Em sua argumentação, algumas partes dos sistemas complexos encontrados na biologia são extremamente importantes e afetam a função geral de seu mecanismo. O ajuste fino pode ser delineado através das partes vitais e interativas dos organismos vivos. Em "Darwin's Black Box" (Caixa Preta de Darwin) ( Behe, 1996 ), Behe ​​exemplificou sistemas, como o flagelo que as bactérias usam para nadar e a cascata de coagulação sanguínea, que ele chamou de irredutivelmente complexos, configurados como um notável trabalho em equipe de várias (frequentemente dezenas ou mais) proteínas interagindo. Seria possível, em um modelo incremental, que tal sistema pudesse evoluir para algo que ainda não existe? Muitos sistemas biológicos não parecem ter um predecessor funcional viável a partir do qual pudessem ter evoluído gradualmente, e a ocorrência de um salto único por acaso é extremamente pequena. Parafraseando o primeiro homem na Lua: "Não se trata de pequenos passos de proteínas, nem de um salto gigantesco para a biologia."
Os seres vivos exibem estruturas e funções que podem ser melhor compreendidas como engenharia em nanoescala. Em 1998, Bruce Alberts, presidente da Academia Nacional de Ciências, publicou um artigo importante que preparou a próxima geração de biólogos moleculares: A Célula como uma Coleção de Máquinas de Proteínas ( Alberts, 1998 ).

4. Principais resultados e discussão

Nesta seção, apresentaremos e discutiremos algumas observações relevantes da biologia experimental. Isso será feito à luz da teoria dos modelos estocásticos, descrita na Seção 2. Mais especificamente, identificaremos eventos.cuja probabilidadeé muito baixo em modelos estocásticos naturalistas, e argumenta-se que estes representam exemplos extremos de ajuste fino.

4.1 Proteínas funcionais

Sabe-se que as proteínas naturais se dobram apenas em um número limitado de conformações. A capacidade de design de uma estrutura é definida como o número de sequências que se dobram nessa estrutura ( Zhang et al., 2014 ). Algumas dessas conformações ocorrem frequentemente e são geralmente consideradas altamente projetáveis, enquanto outras são raramente observadas e menos projetáveis. Li et al. (1996) introduziram o conceito de capacidade de design de proteínas. Um aspecto interessante do estudo deles foi que as estruturas diferiam bastante em termos de capacidade de design, e as estruturas altamente projetáveis ​​representavam apenas uma pequena fração do total.
Um objetivo importante é obter uma estimativa da prevalência geral de sequências que adotam dobras proteicas funcionais , ou seja, a estrutura dobrada correta, com a dinâmica adequada e um sítio ativo preciso para sua função específica. Douglas Axe trabalhou nessa questão no Centro do Conselho de Pesquisa Médica em Cambridge. Os experimentos que ele realizou mostraram uma prevalência entre 1 em 10⁵⁰ e 1 em 10⁷⁴ de sequências proteicas que formam uma dobra funcional de 150 aminoácidos ( Axe, 2004 ). Portanto, proteínas funcionais requerem sequências altamente organizadas, como ilustrado na Figura 2. Embora as proteínas tolerem uma gama de aminoácidos possíveis em algumas posições da sequência, um processo aleatório que produza cadeias de aminoácidos desse comprimento resultaria em uma proteína funcional apenas em cerca de uma em cada 10⁵⁰ a 10⁷⁴ tentativas devido à variação genética . Esse resultado empírico é bastante análogo à inferência da física finamente ajustada. Ou seja, podemos considerar o espaçode todas as proteínas possíveis como resultados de um modelo estocástico, onde cada resultado é uma sequência de letras (aminoácidos). A prevalênciaé a probabilidade do eventoque uma sequência de aminoácidos escolhida aleatoriamente leva a uma proteína funcional (ou, de forma mais geral, a uma proteína com alguns padrões característicos), enquantoEnvolve todas as constantes bioquímicas relevantes para a formação de proteínas.
  1. Baixar: Baixar imagem em alta resolução (338 KB)
  2. Baixar: Baixar imagem em tamanho real

Figura 2. Diagrama de um domínio proteico tridimensional típico, conforme estudado por Axe (2004) . Esta β-lactamase consiste em dois domínios estruturais, e apenas o maior deles é mostrado aqui (153 aminoácidos, entrada PDB 1ERM).

Os resultados experimentais relatados por Douglas Axe são estudos empíricos de uma única proteína que tipicamente estaria envolvida como uma das partes constituintes de um sistema Behe ​​coerente (ver Seção 4.2 ). O espaço de sequências de proteínas pode parecer um deserto ilimitado de sequências mal ajustadas com apenas alguns oásis de sequências funcionais, como descrito por Axe. Outro estudo examina a probabilidade de encontrar proteínas de ligação a ATP a partir de uma amostra aleatória do espaço de sequências, independentemente do dobramento ( Ferrada e Wagner, 2010 ). Os autores estimaram uma probabilidade de 1 em 10¹¹ de encontrar uma proteína de ligação a ATP, sugerindo uma probabilidade maior do que a encontrada por Axe. Recentemente, Kozulic e Leisola (2015) realizaram análises cuidadosas desses resultados e concluíram que, mesmo com condições muito conservadoras, a probabilidade de encontrar atividade de ligação a ATP que funcionaria em uma célula seria menor que 1 em 10³² . Estimativas como essas dependem de vários fatores (os componentes do vetor de parâmetros) . ), incluindo o comprimento das proteínas consideradas. Eles indicam que a probabilidade de encontrar uma proteína funcional no espaço de sequências pode variar amplamente, mas geralmente permanece muito além do alcance dos processos darwinianos ( Axe, 2010a ). Alguns autores chegaram a sugerir que o repertório original de aminoácidos consistia em apenas quatro ou cinco aminoácidos, a fim de reduzir o gigantesco espaço de sequências e “eliminar o jogo dos grandes números” ( Dryden et al., 2008 ). No entanto, isso exigiria outro tipo de código genético, algo considerado altamente especulativo. Portanto, para uma proteína funcional típica, podemos afirmar experimentalmente:
(4)
Os argumentos sobre proteínas funcionais descritos acima são estudos empíricos baseados em uma estimativa estatística padrão de prevalência, usando uma abordagem frequentista ou bayesiana (2)-(3). Tais estudos são comumente realizados em pesquisas científicas por meio de estimativas de Monte Carlo da prevalência (cf. a discussão abaixo (3) ), examinando uma amostra selecionada aleatoriamente de toda a população. Usando tais estimativas, as proteínas da vida são consideradas tipos específicos de eventos com baixa probabilidade. Observe, no entanto, que a prevalência dependerá de como o modelo estocástico de formação de proteínas é construído. A abordagem mais simples é escolher os aminoácidos da sequência proteica de forma independente e aleatória, como acima. Uma abordagem mais refinada é modelar a evolução de proteínas (como brevemente discutido na Seção 5 ). A aleatoriedade é então incorporada a uma árvore ancestral de proteínas, cuja dinâmica é impulsionada pela deriva genética aleatória por meio da reprodução, mutações aleatórias e seleção natural . Os parâmetrosOs parâmetros de tal modelo incluem o tamanho da população de proteínas, o tamanho efetivo da população , as taxas de mutação e a aptidão dos organismos que carregam uma determinada proteína, onde organismos com proteínas funcionais apresentam maior aptidão. Axe também discorre sobre as enormes improbabilidades de que algo como proteínas funcionais surja por seleção natural ( Axe, 2016 ). O espaço de busca se mostra vasto demais para que a seleção cega tenha sequer uma pequena chance de sucesso. A visão contrastante é a de inovações baseadas em engenhosidade, astúcia e inteligência. Um elemento disso é o que Axe chama de “coerência funcional”, que sempre envolve planejamento hierárquico, sendo, portanto, um produto de ajuste fino. Ele conclui: “A coerência funcional torna a invenção acidental fantasticamente improvável e, portanto, fisicamente impossível” ( Axe, 2016, p. 160 ).
A vida como a conhecemos hoje é um mundo interdependente de DNA e proteínas ( Voie, 2006 ). No entanto, as moléculas de RNA podem funcionar tanto como enzimas (“proteínas”) quanto como replicadores (“DNA”). Eugene Koonin (2007 , 2012) realizou um estudo teórico sobre o caminho de um suposto mundo de RNA para um sistema de tradução explícito (como um “mundo de DNA-proteína”). Ele descobriu que esse caminho é incrivelmente íngreme ( Koonin, 2012, p. 376 ), mesmo no melhor cenário possível. Koonin estudou os requisitos para que um sistema de RNA acoplado de replicação-tradução específico emergisse, após a formação do nosso universo, em uma região O de planetas. Supondo que o sistema de RNA de replicação-tradução corresponda a um-mer comnucleotídeos, ele calculou probabilidades infinitesimalmente pequenas
(5)
para que surja dentro de um intervalo de tempo de duraçãosegundos após o Big Bang. A quantidadeno denominador de (5) está o tempo de espera esperado até que o primeiro sistema de RNA acoplado de replicação-tradução surja por acaso em algum lugar entre osplanetas da região O. Assume-se que cada um desses planetas tenha a mesma dimensão da Terra e uma taxa demoléculas por segundo em queOs -meros são formados dentro de sua camada habitável.
Koonin apresenta uma solução bastante especulativa para um multiverso infinito: os Muitos Mundos em Um (MWO). Isso altera a própria definição do que é possível e provável, de tal forma que a probabilidade de qualquer cenário se concretizar em um multiverso infinito passa a ser 1. As probabilidades deixam de importar. Mesmo assim, Koonin apresentou um cálculo detalhado de um limiar para a evolução biológica. Ele também afirma que o Mundo do RNA dificilmente tem potencial para evoluir além de “organismos” muito simples ( Koonin, 2012, p. 366 ).

4.2 Complexos proteicos

As proteínas raramente atuam sozinhas. Elas podem interagir com uma variedade de moléculas diferentes, mas são as suas interações simultâneas entre si, no mesmo local, que explicam muitas das funções da célula ( Jones e Thornton, 1996 ). As proteínas em um complexo proteico são ligadas por interações não covalentes proteína-proteína. Os complexos proteicos são uma forma de estrutura quaternária . Esses complexos são fundamentais em muitos processos biológicos e, juntos, formam vários tipos de maquinário molecular que executam uma vasta gama de funções biológicas . Os conjuntos de proteínas estão na base de inúmeras máquinas biológicas, realizando ações que nenhuma das proteínas individuais seria capaz de realizar. Existem milhares, talvez milhões, de diferentes tipos e estados de proteínas em um organismo vivo, e o número de interações possíveis entre elas é enorme. A montagem adequada de complexos multiproteicos é importante, e a mudança de um estado ordenado para um desordenado leva a uma transição da função para a disfunção do complexo. Alguns complexos proteicos podem ser bastante constantes e existir durante toda a vida da célula, enquanto outros podem ser transitórios, acumulados para algum propósito e degradados quando não são mais necessários. Na Seção 3 , foi mencionado um sistema de Behe ​​de complexidade irredutível . Ele é composto por diversos módulos bem combinados e interativos que contribuem para a função básica, sendo que a remoção de qualquer um dos módulos faz com que o sistema deixe de funcionar.
Behe não ignora o papel das leis da natureza. A biologia permite mudanças e modificações evolutivas. A evolução existe, o design irredutível existe, e ambos são observados. As leis da natureza podem organizar a matéria e forçá-la a mudar. A questão de Behe ​​é que existem alguns sistemas irredutivelmente complexos que não podem ser produzidos pelas leis da natureza.
“Se uma estrutura biológica pode ser explicada em termos dessas leis naturais [reprodução, mutação e seleção natural], então não podemos concluir que ela foi projetada… no entanto, mostrei por que muitos sistemas bioquímicos não podem ser construídos pela seleção natural atuando sobre mutações: não existe uma rota direta e gradual para esses sistemas complexos irredutíveis, e as leis da química atuam fortemente contra o desenvolvimento não direcionado dos sistemas bioquímicos que produzem moléculas como o AMP 1 ” ( Behe, 1996, p. 203 ).
Então, mesmo que as leis naturais atuem contra o desenvolvimento dessas “complexidades irredutíveis”, elas ainda existem. A forte sinergia dentro do complexo proteico o torna irredutível a um processo incremental. Elas devem ser reconhecidas, antes, como condições iniciais finamente ajustadas das sequências proteicas constituintes . Essas estruturas são exemplos biológicos de nanoengenharia que superam qualquer coisa que os engenheiros humanos tenham criado. Tais sistemas representam um sério desafio para uma explicação darwiniana da evolução, uma vez que sistemas irredutivelmente complexos não possuem uma série direta de intermediários selecionáveis ​​e, além disso, como vimos na Seção 4.1 , cada módulo (proteína) tem baixa probabilidade de existir isoladamente.
Diversos argumentos têm sido escritos sobre se a evolução darwiniana pode ou não explicar plausivelmente sistemas irredutivelmente complexos ( Behe, 2001 , Behe, 2004 , Behe, 2019 , Miller, 2004 , Dembski, 2004 , Pallen e Matzke, 2006 , Liu e Ochman, 2007 , Doolittle, 2012 ). Complexidade irredutível não significa que sistemas irredutivelmente complexos sejam logicamente impossíveis de evoluir com base em módulos existentes. Não se pode descartar definitivamente a possibilidade de uma rota indireta e tortuosa. Um subsistema bem conhecido do flagelo bacteriano (chamado sistema de secreção do tipo III) desempenha uma função distinta da do flagelo. No entanto, encontrar um subsistema de um sistema funcional que desempenhe alguma outra função dificilmente é um argumento para o sistema original ter evoluído a partir desse outro sistema. À medida que a complexidade de um sistema interativo aumenta, a probabilidade de tal rota indireta diminui rapidamente. Portanto, explicações darwinianas para sistemas irredutivelmente complexos são improváveis. Em última análise, esta é uma questão que deve ser estudada tanto experimentalmente quanto por meio de simulações computacionais. O conceito de complexidade irredutível de Behe ​​não foi refutado por modelos computacionais ( Ewert, 2014 ; Ewert et al., 2014 ), e atualmente não existem relatos darwinianos detalhados da evolução de qualquer sistema bioquímico ou celular desse tipo, “apenas uma variedade de especulações otimistas” ( Harold, 2003, p. 205 ).
No âmbito da Seção 2 , o conjunto de todos os complexos proteicos possíveis é considerado como o espaço amostral.de um modelo estocástico. De acordo com um modelo naturalista, os resultados são gerados aleatoriamente pela evolução, impulsionados pela deriva genética aleatória por meio da reprodução, mutações aleatórias e seleção natural. A prevalência, ou seja, a fração de complexos proteicos funcionais, será tipicamente ainda menor do que na Seção 4.1 , uma vez que é necessário ainda mais para que um complexo de proteínas funcione em comparação com uma única proteína.
De fato, o modelo estocástico de complexos proteicos é bastante complexo, incluindo, por exemplo, a interação física. As interações físicas entre proteínas são tipos específicos de interações, e um sistema de Behe ​​pode ser analisado pelo princípio bioquímico da complementaridade . Quando um complexo proteico biologicamente ativo consiste em mais de uma subunidade separada, a chamada estrutura quaternária descreve a topologia dos contatos, ou seja, como as unidades constituintes se unem no espaço. As moléculas da superfície em tal sistema biológico se encaixam devido à complementaridade espacial e eletrostática . Os contornos de uma subunidade do sistema são complementares aos contornos das outras, e regiões de excesso de carga positiva na superfície de uma unidade devem se encaixar perfeitamente com regiões de excesso de carga negativa nas outras, como ilustrado na Figura 3. Além disso, a hidrofobicidade e outras propriedades físico-químicas também estão envolvidas na configuração final. A assimetria entre as proteínas envolvidas é convencionalmente dividida em “isca” e “presa” ( Scholtens et al., 2008 ). A isca é a proteína cujos parceiros de interação estamos buscando; As proteínas-alvo são aquelas proteínas que interagem com uma determinada isca. As subunidades básicas se encaixam no sistema de múltiplas subunidades como um grande quebra-cabeça tridimensional.
  1. Baixar: Baixar imagem em alta resolução (177 KB)
  2. Baixar: Baixar imagem em tamanho real

Figura 3. Ilustração simplificada de uma configuração local baseada na complementaridade eletrostática de um sistema de Behe ​​com três pares ligados por pontes de hidrogênio em um cristal. Esta figura exibe isosuperfícies positivas (azuis) e negativas (vermelhas) da densidade eletrônica de deformação. As energias de interação eletrostática (kJ mol⁻¹ ) para pares de moléculas vizinhas mais próximas são indicadas em amarelo. O reconhecimento de padrões moleculares e o acoplamento de proteínas envolvem propriedades estéricas, eletrostáticas e outras propriedades físico-químicas. A figura foi adaptada de Faraday Discussions ( Edwards et al., 2017 ).

O princípio da complementaridade foi proposto inicialmente pelo ganhador do Prêmio Nobel Paul Ehrlich (1854–1915). Ele ressoa em toda a bioquímica e continua a fundamentar grande parte da pesquisa moderna sobre o modo de ação das enzimas ( Hall, 2000, p. 303 ). O acoplamento de proteínas e o reconhecimento de padrões em nível molecular são baseados na complementaridade multinível (geometria, carga, hidrofobicidade etc.).
Dembski aplica o termo “Objeto Combinatório Discreto” a qualquer sistema biomolecular que tenha sido definido por Behe ​​como tendo “complexidade irredutível” ( Dembski, 2002, pp. 289-302 ). A equação de Drake é uma expressão frequentemente usada em astrobiologia para estimar a prevalência de civilizações ativas em nossa galáxia. Por analogia à equação de Drake, Dembski propõe uma equação baseada em três eventos independentes: A<sub> p</sub> : originar os blocos de construção (cadeias proteicas) do complexo proteico (conforme descrito na Seção 4.1 ), A <sub> l</sub> : localizar os blocos de construção no mesmo local e A<sub> c</sub> : configurar os blocos de construção corretamente para formar o complexo. Assim, a probabilidade de um complexo proteico é o produto multiplicativo das probabilidades de origem de suas partes constituintes, da localização dessas partes em um local e da configuração dessas partes no sistema resultante (topologia de contato). Isso leva à seguinte estimativa para a probabilidade de um complexo proteico ( PC ) composto por N blocos de construção independentes:
(6)
onde,, esão os parâmetros envolvidos na formação da cadeia proteica, a localização e a configuração doO processo de formação de estruturas como complexos proteicos, através de um processo de três partes (produção, convergência e montagem), é problemático, pois os parâmetros do modelo são muito difíceis de estimar. Portanto, analogamente à equação de Drake, a utilidade da equação não reside na sua resolução, mas sim na reflexão sobre os diversos conceitos que a ciência deve incorporar ao considerar como explicar esse tipo de estrutura complexa. Mesmo que consideremos P(A<sub> p</sub> ) igual a 1, e, portanto, assumamos que não há obstáculos problemáticos na geração dos blocos de construção, e também eliminemos a probabilidade de localização, reduzindo o acaso à necessidade (auto-organização), P(A<sub> c</sub> ) ainda pode representar grandes obstáculos à configuração aleatória da estrutura quaternária de sistemas biológicos operacionais ( Csermely et al., 2010 ). Esse problema de estimar P(A<sub> c</sub> ) parece bastante intratável, mas pode ser abordado por meio de experimentos de perturbação ( Antal et al., 2009 ). A ideia é pegar um sistema funcional, perturbá-lo e determinar como essa perturbação afeta a probabilidade de retenção da função. Há muito trabalho biológico a ser feito nessa área, tanto empiricamente quanto teoricamente, e é importante estarmos abertos a qualquer tipo de conclusão proveniente de novos experimentos. Por exemplo, podemos admitir que a complexidade irredutível no presente nos diz pouco ou nada sobre os precursores funcionais no passado?
Como vimos, o modelo estocástico de complexos proteicos envolve tipos de resultados mais complexos do que os modelos de proteínas da Seção 4.1 . Enquanto proteínas individuais correspondem a cadeias de aminoácidos, os complexos proteicos são frequentemente representados como grafos (Figura 4 ). Grande parte da pesquisa no estudo de interações proteicas tem sido realizada com o uso da teoria matemática dos grafos ( Chiang et al., 2007 ; Su et al., 2018 ). A teoria dos grafos é uma maneira direta e flexível de implementar sistemas interativos reais. A linguagem da teoria dos grafos oferece uma abstração matemática para a descrição de tais relações. Um papel importante dos grafos é a modelagem estatística . Um modelo de grafo direcionado é apropriado para sistemas de isca-presa, nos quais um modelo de erro multinomial é usado para representar as interações. Estatísticas globais e locais sobre a topologia dos grafos de interação visam inferir a natureza e o comportamento das interações do complexo proteico. Su et al. (2018) abordaram a questão dos procedimentos de teste de significância para complexos proteicos biológicos reais. Seus estudos estatísticos mostram que as interações nesses complexos ocorrem de forma muito menos aleatória do que o esperado pelo acaso.
  1. Baixar: Baixar imagem em alta resolução (371 KB)
  2. Baixar: Baixar imagem em tamanho real

Figura 4. Representação de complexos proteicos como gráficos. A configuração complementar de um sistema de Behe ​​é mostrada. Seu reconhecimento de padrões moleculares é baseado em propriedades estéricas, eletrostáticas e outras propriedades físico-químicas. De 3Dcomplex.org em http://shmoo.weizmann.ac.il/elevy/3dcomplexV6/About.cgi.

O modelo isca-presa é, em si, uma forma de modelar o ajuste fino de módulos proteicos. Além disso, a função final do complexo proteico é alcançada pela complementaridade entre a cavidade de ligação da proteína e seu substrato. Isso envolve um nível adicional de complementaridade finamente ajustada em relação aos grupos de átomos interagentes envolvidos na função final do complexo proteico, um fator que reduz ainda mais a prevalência.de complexos proteicos funcionais.
Existe também um nível adicional de informação que deve ser considerado em um modelo estocástico de complexos proteicos. Esse nível de informação está inserido na linguagem da complementaridade molecular, que também pode ser entendida como uma linguagem de sinais biosemiótica , ou seja, sinais escritos e lidos em nível molecular. A biosemiótica é, em geral, o estudo dos signos, da comunicação e da informação em organismos vivos. Charles Peirce é considerado um dos fundadores da semiótica e, portanto, também da biosemiótica. Na biosemiótica, o signo, e não a molécula, é a unidade básica para o estudo da vida ( Hoffmeyer, 1997 ). Nosso foco preferencial atual no genoma e nas sequências de aminoácidos precisa ser complementado por um foco semelhante no senoma ( Baluška e Miller, 2018 ), que representa a soma de todas as atividades da célula viva e seu aparato ( Compagno, 2018 ).

4.3 Redes celulares

Como afirma Denis Noble, os sistemas biológicos funcionam como uma orquestra completa, com seus diferentes elementos tocando em conjunto a partitura da vida ( Noble, 2006 ). Os complexos proteicos desempenham suas funções biológicas de maneira cooperativa, participando de diversos processos e redes biológicas , do núcleo à membrana celular . Sabe-se também que as redes celulares contêm circuitos e ciclos de retroalimentação. Um modelo estocástico com redes celulares como resultados é extremamente complexo. No entanto, os modelos Bayesianos oferecem uma das estruturas mais flexíveis para modelar tais redes em termos de Redes Bayesianas Dinâmicas . Para descrever essas estruturas, os livros didáticos modernos frequentemente utilizam as semelhanças pedagógicas entre a rede celular e uma cidade moderna, ou “cidade inteligente” ( Daempfle, 2016 ).
O estudo das redes de interação proteica de todas as proteínas em um organismo (os “interactomas”) permanece um dos maiores desafios da biologia moderna e constitui o objetivo da biologia de sistemas (Figura 5 ). Métodos estatísticos para reconstruir redes celulares são uma área de pesquisa vasta e em rápido desenvolvimento, incluindo redes Bayesianas, modelos gráficos Gaussianos e métodos baseados em grafos para dados de intervenções e perturbações experimentais ( Markowetz e Spang, 2007 ). Grafos aleatórios também podem ser usados ​​para modelar redes celulares. Eles são descritos em termos de um processo aleatório que os gera e dos parâmetros.As arestas desse processo aleatório são escolhidas de forma que a configuração do grafo aleatório resultante faça sentido em comparação com dados reais . Esses grafos resultantes devem capturar o fato de que genes e produtos gênicos estão conectados em redes altamente organizadas de fluxo de informação através da célula, que por sua vez não funcionam isoladamente. Observamos correlações entre genes pela presença de outros genes. Grafos de correlação geram as estruturas de correlação mais simples entre genes, enquanto redes Bayesianas abrangem um conjunto mais sofisticado de modelos, com correlações mais complexas.
  1. Baixar: Baixar imagem em alta resolução (202 KB)
  2. Baixar: Baixar imagem em tamanho real

Figura 5. Exemplo mostrando uma rede celular, com a proteína β-lactamase ampC (vermelha) e seus interagentes mais prováveis. De string-db.org. String é um banco de dados de interações proteína-proteína conhecidas e previstas. As interações incluem associações indiretas (funcionais) e diretas (físicas).

Experimentos de perturbação são essenciais para inferir a função gênica e as vias regulatórias, e uma técnica genética comum consiste em perturbar um gene de interesse e estudar quais expressões de outros genes são afetadas. Diversos tipos de perturbações têm um grande efeito na estabilidade da rede, e um estudo de teoria dos grafos mostra que as redes de interação de complexos proteicos são redes não aleatórias ( Jalan, 2013 ; Huang et al., 2016 ; Huang et al., 2019 ). Baixa aleatoriedade significa que a probabilidade de dois nós quaisquer escolhidos aleatoriamente estarem conectados entre si é muito baixa ou zero. Contudo, embora resultados como esses indiquem a dificuldade de processos naturais aleatórios gerarem redes de proteínas, ainda há muito trabalho a ser feito antes que possamos compreender melhor as redes biológicas à luz do ajuste fino. A análise baseada em redes se divide nas seguintes categorias principais: (a) identificação e análise de motivos, (b) estudo da arquitetura global, (c) propriedades topológicas locais e (d) robustez da rede sob diferentes tipos de perturbações.
Como descrevemos acima, a organização interna da célula compreende muitas camadas. O genoma refere-se ao conjunto de informações armazenadas no DNA, enquanto o proteoma abrange o conjunto de todas as proteínas. O metaboloma contém pequenas moléculas (açúcares, sais, nucleotídeos e aminoácidos) que participam de reações metabólicas necessárias para a manutenção e o funcionamento normal de uma célula, e todas as proteínas da célula interagem em uma grande rede chamada interactoma . Para compreender a complexidade das células vivas, a pesquisa precisará construir modelos em todas essas camadas. A modelagem estatística desses sistemas pode fornecer uma visão mais profunda de nossa compreensão do universo físico e biológico, conforme demonstrado na Tabela 1 .

Tabela 1. A tabela apresenta uma visão geral dos dados científicos e modelos estatísticos. A estrutura dos dados corresponde ao resultado.do modelo correspondente para proteínas, motores moleculares e redes celulares, ou a especificidade (funcionamento)desse resultado para a física refinada.

Dados empíricosEstrutura de dadosTipo de modeloSeção
Física finamente ajustadaIndicador binário de função.Inferência Bayesiana ou
Inferência Abdutiva
3
ProteínasSequências aleatóriasInferência frequentista ou inferência bayesiana4.1
Motores molecularesGráficos aleatóriosInferência frequentista ou inferência bayesiana (preliminar)4.2
Redes celularesGráficos aleatóriosInferência Bayesiana (preliminar)4.3
Nas duas seções seguintes, discutiremos algumas implicações adicionais e questões de modelagem matemática relacionadas a sistemas finamente ajustados.

5. Obtendo ajuste fino em um modelo darwiniano convencional: O problema do tempo de espera

Nesta seção, vamos nos aprofundar na relação entre a probabilidade de um evento e o tempo disponível para que esse evento ocorra. No contexto dos sistemas vivos , precisamos questionar se os mecanismos darwinianos convencionais têm a capacidade de realizar ajustes finos durante um período de tempo determinado . Isso é importante para interpretar corretamente o registro fóssil, que muitas vezes é interpretado como tendo longos períodos de estase interrompidos por mudanças abruptas e repentinas ( Bechly e Meyer, 2017 ). Exemplos dessas mudanças repentinas incluem a origem da fotossíntese , as explosões cambrianas, a evolução de olhos complexos e a evolução do voo animal. Acredita-se que as mudanças genéticas concomitantes tenham ocorrido muito rapidamente, pelo menos em uma escala de tempo macroevolutiva, durante um período de tempo de duraçãoPara testar se isso é possível, é necessário um modelo matemático para estimar a prevalência.do eventoque as alterações genéticas necessárias em uma espécie ocorram dentro de um período de tempo de duração.
Mais especificamente, no âmbito da Seção 2, consideramos um intervalo de tempo de duração(normalmente medidas em unidades de gerações) e questionam se os mecanismos evolutivos (mutações, seleção natural e deriva genética aleatória) podem alterar uma sequência de nucleotídeos do DNA de toda uma população (espécie), de um padrão para outro, através de uma série dealterações genéticas coordenadas. O resultadoé o caminho evolutivo do sistema a partir do ponto inicial do intervalo,é o tempo necessário para provocar uma série demudanças específicas eé o conjunto de todos os resultadospara as quais essas mudanças ocorrem dentro do tempoIsso corresponde a uma prevalência., ondeé aleatório, com uma distribuição que atribui probabilidades a todos os resultados possíveis , de acordo com um modelo genético populacional do sistema, enquantoinclui os parâmetros desse modelo, como o tamanho (efetivo) da população, o comprimento da cadeia de DNA, a taxa de mutação , o tipo de alterações genéticas necessárias em cada um dospassos e a aptidão seletiva de indivíduos que adquiriramalterações genéticas. Por exemplo, se o objetivo final do processo evolutivo for um sistema irremediavelmente complexo comsubunidades, a aptidão da sequência de DNA alvo correspondente é maior do que a aptidão de indivíduos sem alterações genéticas (, enquanto indivíduos que adquiriramAs alterações genéticas devem ter uma aptidão ainda menor do que aquelas sem alterações genéticas. Quanto maior a população, mais difícil é para as mutações deletérias das etapas intermediárias se espalharem e se fixarem em toda a população. Portanto, a prevalênciaA capacidade de um sistema irredutivelmente complexo é extremamente pequena para todas as populações, exceto as muito pequenas.
É importante aqui diferenciar entre adaptações mutacionais baseadas em informações codificadas internamente e aquelas que são resultado do mero acaso. Mais especificamente, uma ou mais mutações do primeiro tipo são necessárias para construir novas informações e levar o sistema de um estado para outro.paraMas, ao mesmo tempo, outras mutações aleatórias do segundo tipo surgirão e, às vezes, essas mutações destroem informações e fazem o sistema retroceder do estado inicial.para declararO efeito dessas mutações reversas é aumentar o tempo necessário.para atingir a meta dealterações genéticas coordenadas e, consequentemente, tornando a prevalênciade um sistema irredutivelmente complexo ainda menor.
Para estimar a prevalência do sistema, precisamos, portanto, encontrar a distribuição do tempo de espera.atéocorrem mudanças genéticas coordenadas. Para uma única mudança (, este é um problema bem estudado de genética de populações quando o alvo representa uma única mutação pontual ( Crow e Kimura, 1970 ; Durrett, 2008 ). Esses resultados foram generalizados para cenários mais complexos com, onde o alvo representa uma cadeia inteira de DNA de nucleotídeos, usando aproximações analíticas ( Durrett e Schmidt, 2007 , Behrens e Vingron, 2010 , Tugrul et al., 2015 ) ou simulações ( Sanford et al., 2015 ).
A distribuição do tempo de espera paraAs alterações genéticas incluem um artigo pioneiro de Kimura (1985) e publicações mais recentes no contexto da disseminação tumoral por Komarova et al., 2003 , e Iwasa et al., 2004. Os resultados matemáticos destes dois últimos artigos foram utilizados por Durrett e Schmidt, 2008 , 2009, para estimar o tempo necessário para que duas mutações coordenadas alterem a expressão de um gene de tal forma que a primeira mutação desative um sítio de ligação em uma região regulatória próxima, enquanto a segunda mutação ativa um segundo sítio de ligação na mesma região regulatória. Este trabalho foi posteriormente ampliado por Durrett et al. (2009) para um número arbitrário de anos. de mutações.
Behe (2007) argumentou queMutações coordenadas parecem ser o limite do que a evolução é capaz de alcançar, sendo o desenvolvimento de resistência à cloroquina no parasita causador da malária ( P. falisparum ) um exemplo bem conhecido. Behe ​​(2009) também enfatizou a importância de incluir mutações reversas em modelos para o tempo de espera de mutações coordenadas. Isso foi confirmado, em diferentes contextos, por Axe (2010b , 2010a) e Hössjer et al. (2018) . Em uma seção deste último artigo, os autores consideram um sistema comsubunidades, cada uma das quais pode sofrer mutações diretas e reversas independentemente, para frente e para trás, em qualquer ordem. Além disso, assumem um modelo neutro onde todos os estados intermediários deAs mutações diretas adquiridas não apresentam desvantagem seletiva. Está demonstrado na equação (12.109) de Hössjer et al. (2018) que o tempo de espera esperado até que o sistema adquira todas as mutações diretas é dado por:mutações diretas, é aproximadamente
(7)
quandoé grande, coma probabilidade de uma mutação direta por geração e indivíduo, e a probabilidade de uma mutação reversa por geração e indivíduo, denotadas porSe cada subunidade for um único nucleotídeo de DNA (A, G, C ou T), os valores típicos dos parâmetros serão:e, visto que apenas uma mutação em três é uma mutação direta (correspondente ao nucleotídeo alvo dessa subunidade), enquanto todas as mutações são mutações reversas. O tempo de espera em (7) é aproximadamente distribuído exponencialmente, portanto, pela expansão de Taylor, a prevalência é dada por
(8)
Observe, em particular, que o tempo de espera esperado em (7) aumenta coma uma taxa exponencial quando mutações reversas são permitidas (, enquanto a prevalência em (8) diminui exponencialmente comO tempo de espera aumenta ainda mais rapidamente comPara um sistema irredutivelmente complexo com mutações reversas, uma vez que os estados intermediários não são neutros, mas deletérios. Consequentemente, a prevalênciade um sistema irredutivelmente complexo com mutações reversas é extremamente pequeno, mesmo para valores moderadamente grandes..
Diversos autores tentaram superar o problema do tempo de espera propondo mecanismos de mudança dentro da via evolutiva.que reduzem o tempo necessário para atingir o alvo. Esses mecanismos incluem simbiogênese , a ação de elementos transponíveis , transferência horizontal de genes e o uso de vias evolutivas alternativas. No entanto, LeMaster (2018) argumenta que nenhum desses mecanismos realmente resolve o problema do tempo de espera.
Também é possível abordar o problema do tempo de espera no contexto do ajuste fino de estruturas da célula viva que se conectam à origem da vida, como proteínas (ver equação (5) da Seção 4.1 ), complexos proteicos ( Seção 4.2 ) ou o código genético ( Wichmann e Ardern, 2019 ). A prevalênciaentão corresponde à probabilidade de que (algum aspecto da) vida tenha surgido puramente por acaso dentro de um período de tempo predeterminado.Considerando que o ajuste fino da diversidade da vida (desde que a vida tenha surgido) requer um processo evolutivo darwiniano (biológico)a fim de estimar a probabilidadeConsiderando que a estrutura genômica observada ocorreu aleatoriamente, dentro de um período de tempo predeterminado, a origem da vida corresponde a um cenário ondeÉ um processo de evolução química.

6. Modelagem do ajuste fino em sistemas biológicos

6.1 Trabalhos de modelagem anteriores

O Design Inteligente (DI) tem despertado grande interesse e atenção nos últimos anos, principalmente nos EUA , atraindo a atenção do público e provocando debates acalorados nos meios científicos e populares. O DI busca aderir aos mesmos padrões de investigação racional que outras áreas científicas e filosóficas, estando sujeito aos mesmos métodos de avaliação e crítica. O DI tem sido criticado tanto por sua lógica subjacente quanto por suas diversas formulações ( Olofsson, 2008 ; Sarkar, 2011 ).
William Dembski propôs originalmente o que chamou de “filtro explicativo” para distinguir entre eventos devidos ao acaso, à regularidade ordenada ou a um desígnio ( Dembski, 1998 ). Em um nível suficientemente abstrato, sua lógica se baseia em princípios e técnicas bem estabelecidos da teoria de testes de hipóteses estatísticas . No entanto, é difícil aplicá-lo a muitas aplicações ou contextos biológicos interessantes, porque um grande número de cenários potenciais, porém desconhecidos, pode existir, o que dificulta a formulação de uma hipótese nula para um teste estatístico ( Wilkins e Elsberry, 2001 ; Olofsson, 2008 ).
A versão reformulada de uma medida de complexidade publicada por Dembski e seus colaboradores é denominada Complexidade Algorítmica Especificada (ASC) ( Ewert et al., 2013 , Ewert, 2014 , Ewert et al., 2014 ). A ASC incorpora as medidas de complexidade de Shannon e Kolmogorov e quantifica o grau em que um evento é improvável e segue um padrão. A complexidade de Kolmogorov está relacionada à compressão de dados (e, portanto, de padrões), mas sofre da propriedade de ser incognoscível, pois não existe um método geral para calculá-la. No entanto, é possível estabelecer limites superiores para a complexidade de Kolmogorov e, consequentemente, a ASC pode ser limitada sem ser calculada exatamente. A ASC é baseada no contexto e medida em bits. Os mesmos autores aplicaram esse método à linguagem natural, ruído aleatório, dobramento de proteínas, imagens etc. ( Marks et al., 2017 ).

6.2 Rumo a uma estrutura estatística geral para testar o ajuste fino

Mais recentemente, George Montañez publicou um modelo para detecção de ajuste fino que incorpora aleatoriedade e especificidade, e que unifica muitas tentativas anteriores ( Montañez, 2018 ). Para descrever esse método, vamos considerar...seja uma função que quantifique, para cada resultado, o quão específico ele é, com um valor maior correspondendo a um maior grau de especificidade. Sejaseja o resultado observado e defina o conjunto
(9)
5">de resultados que são pelo menos tão improváveis ​​ou pelo menos tão específicos quanto o observado. A prevalênciacorresponde ao caráter atípico deOu seja, qual a probabilidade de observar um resultado pelo menos tão improvável e/ou especificado quantoOutra possibilidade é definir um evento.
(10)
que consiste em todos os resultados pelo menos tão especificados quanto o observado. Uma vantagem de (10) sobre (9) é que (10) torna possível tratar modelos onde alguns resultados são discretos enquanto outros são contínuos, como é comum em problemas com censura e truncamento.
A escolha da função de especificidadeé crucial. No caso mais simples, um resultado é especificado ou não, quantificado como 1 ou 0. Isso corresponde a uma função indicadora.
(11)
ondeé o conjunto de resultados especificados, ou seja, uma função que é igual a 1 para todos os resultados eme 0 para todos os resultados fora deObserve que (10) recuperaem qualquer momentosatisfaz (11) e observamos um resultado especificado ().
Em outras aplicações, existem diferentes graus de especificidade, o que exige escolhas mais sofisticadas dedo que (11) . É possível, por exemplo, formular o Dilema de Haldane no contexto de (10). Haldane (1932) questionou se a seleção natural é capaz de remover mutações deletérias à medida que surgem em uma espécie ao longo do tempo. Caso contrário, elas podem causar uma carga mutacional que aumenta a tal ponto que a sobrevivência da espécie fica ameaçada ( Lynch et al., 1993 ). Tal aumento na carga mutacional corresponde a um aumento da entropia genética ( Sanford, 2008 ) ou a uma diminuição da aptidão biológica. O Dilema de Haldane está, na verdade, relacionado ao problema do tempo de espera da Seção 5. Mais especificamente, fazemos a seguinte pergunta: Se uma população evoluiu aleatoriamente durante um período de tempo de duraçãoEntão, ao final desse período, qual será a fração de indivíduos?dentro da populaçãoteria um condicionamento físicopelo menos tão grande quanto o observado,, para algum indivíduo vivo neste momento ? No contexto de (8), isso corresponde a uma prevalência, ondeé a aptidão de um indivíduo escolhido aleatoriamente.ao final do período, de acordo com as previsões de um modelo evolutivo.
Os parâmetrosNeste modelo, incluem-se a distribuição de aptidão no início do período, o tamanho (efetivo) da população, a taxa de mutação e o espectro mutacional (a distribuição das mudanças de aptidão causadas por mutações). Se o espectro mutacional for tal que as mutações sejam neutras em média, então o Teorema Fundamental da Seleção Natural de Fisher ( Fisher, 1930 ; Price, 1972 ) prevê que a aptidão biológica aumenta ao longo do tempo, correspondendo a uma alta prevalência.No entanto, é bem conhecido ( Kimura, 1979 ) que a maioria das mutações é ligeiramente prejudicial. Basener e Sanford (2018) recentemente estenderam o Teorema de Fisher, permitindo espectros mutacionais arbitrários. Em particular, eles mostraram que o espectro mutacional de Kimura implica uma diminuição da aptidão ao longo do tempo, em consonância com as previsões do Dilema de Haldane. Consequentemente, a prevalênciaé muito pequeno para espécies que existem há muito tempo.de tempo.
Independentemente de (9) ou (10) ser usado, e independentemente decorresponde a uma função binária ou contínua, a prevalênciaenvolve uma série de parâmetros desconhecidosPortanto, para estimar a prevalência, precisamos de um conjunto de dados de treinamento (=dados) diferente depara estimar os parâmetros desconhecidos, seja por meio de uma abordagem frequentista (2) ou de uma abordagem Bayesiana (3). No primeiro casoé chamado de-valor. Também enfrentamos o desafio da prevalênciadepende dePrecisamos saber.antecipadamente ou ser capaz de estimá-la de alguma forma (isso está relacionado à dificuldade mencionada anteriormente de formular uma hipótese nula de teste). Nossos exemplos anteriores nas Seções 3 a 5 correspondem a uma especificidade binária (11) , onde(ou equivalentemente)) quandoé um universo que existe ou é habitável ( Seção 3 ) ou quandoé uma proteína ou complexo proteico que desempenha uma função ( Seções 4.1–4.2 ). Na Seção 5, abordamos o problema do tempo de espera e questionamos se o tempoaté que uma sequência pré-especificada de mudanças de um caminho evolutivo ocorra.ocorrer, é menor queou não. Isso corresponde à função de especificidade binária (11) comPara o Dilema de Haldane, utilizamos uma função de especificidade contínua que corresponde à aptidão biológica.

6.3 Seleção do modelo

Uma abordagem geral consiste em detectar o ajuste fino demonstrando que a prevalência do evento (9) ou (10) é baixa. Um crítico pode argumentar que isso, em certa medida, é um argumento de "ajuste fino das lacunas", visto que talvez nunca saibamos com certeza se um modelo naturalista melhor, com uma prevalência muito maior, será encontrado no futuro. Ou seja, se a prevalênciaé baixo, pois refutamos apenas um modelo naturalista específico, não necessariamente o naturalismo em geral. É claro que nunca podemos ter certeza se uma explicação naturalista melhor será encontrada posteriormente. No entanto, pode-se argumentar que a abordagem mais adequada da ciência é comparar as melhores explicações encontradas até o momento dentro de duas visões de mundo concorrentes. Isso leva naturalmente à seleção de modelos. Relembrando a Figura 1 , um modelo estatísticoé uma coleção de mecanismos geradores de dadospara todos os parâmetrosque o modelo permite. É possível que alguns problemas sugiram um modelo de projeto.que compete com o modelo naturalista mais promissor atualmente, em termos de qual modelo explica melhor os dados.
Essa seleção de modelo pode ser realizada por meio do cálculo de estimativas.eda prevalência de(escolhido como em (9) ou (10)) para ambos os modelos e, em seguida, escolhendo o modelo com a maior prevalência estimada. A prevalência de cada modelo pode ser estimada por uma abordagem frequentista (2) ou bayesiana (3). Em ambos os casos, a prevalência corresponde à discrepância de, de modo que o modelo escolhido seja aquele para o qualé o mínimo de um valor discrepante. Podemos interpretar essa seleção de modelo entreecomo uma comparação da qualidade do ajuste dos dois modelos ao conjuntode todos os conjuntos de dados possíveis que sejam pelo menos tão especificados quantoUm tipo mais tradicional de seleção de modelo, que não leva em consideração a especificidade, consiste em comparar a qualidade do ajuste do resultado observado.para ambos os modelos concorrentes, comparandoeou versões dessas probabilidades que são penalizadas pelo tamanho do modelo. Isso corresponde a escolherem (2) ou (3).
Acreditamos que a abordagem de seleção de modelos é muito promissora para futuras pesquisas de ajuste fino. Ela pode ser usada, por exemplo, para decidir se a diversidade da vida é melhor explicada pela macroevolução darwiniana () ou um modelo inspirado no design (Exemplos de modelos inspirados em design incluem o Grafo de Dependência de Winston Ewert (2018) e uma floresta de árvores genealógicas microevolutivas , onde as espécies dentro de cada árvore genealógica descendem de uma população ancestral comum projetada ( Tan, 2015 ; Tan, 2016 ). Também é possível estudar o problema mais restrito da ancestralidade humana/chimpanzé e comparar um modelo.com ancestralidade comum entre as duas espécies, com um modelo de origem único., segundo a qual cada espécie é fundada por um único casal ( Sanford e Carter, 2014 ; Hössjer et al., 2016a ; Hössjer et al., 2016b ; Carter et al., 2018 ; Hössjer e Gauger, 2019 ). Para ampliar e fortalecer os resultados desses artigos, dadospode envolver não apenas padrões de DNA, mas também uma ou várias camadas de organização da célula, conforme descrito na Seção 4 .

7. Considerações finais

A modelagem e inferência estatística em sistemas moleculares podem fornecer informações valiosas para a nossa compreensão do universo físico e biológico. Neste artigo, elaboramos informações básicas a partir de sequências de DNA , proteínas, complexos proteicos, vias de sinalização e redes, utilizando a prevalênciade um evento observadode ajuste fino, que corresponde a uma informação de Shannon deAo elaborarmos tais modelos, podemos capturar adequadamente parte da riqueza do mundo natural. Nesse contexto, os métodos estatísticos fazem parte de uma nova abordagem que, em muitos casos, nos permite quantificar o quão desafiador é para processos aleatórios e naturalistas explicar as observações e os dados científicos contemporâneos, propondo, em vez disso, o ajuste fino como uma explicação alternativa plausível.
As leis, constantes e condições iniciais primordiais da natureza representam o fluxo natural. Esses objetos puramente naturais, descobertos nos últimos anos, aparentam ter sido deliberadamente ajustados com precisão. Proteínas funcionais, máquinas moleculares e redes celulares são improváveis ​​quando consideradas como resultados de um modelo estocástico, com uma distribuição de probabilidade relevante (tendo uma pequena margem de erro).), e ao mesmo tempo estão em conformidade com uma especificação independente ou separada (o conjuntosendo definidos em termos de especificidade). Esses resultados são importantes e deduzidos de fenômenos centrais da ciência básica. Tanto na física quanto na biologia molecular, o ajuste fino emerge como um princípio unificador e de síntese – uma observação interessante por si só.
Neste artigo, argumentamos que uma análise estatística de ajuste fino é uma abordagem útil e consistente para modelar algumas das categorias de projeto: “complexidade irredutível” (Michael Behe) e “complexidade especificada” (William Dembski). Como mencionado na Seção 1 , essa abordagem requer a) a introdução de uma distribuição de probabilidade para o conjunto de resultados possíveis e b) que um conjuntode eventos finamente ajustados ou, de forma mais geral, uma função de especificidadeé definido. Aqui, b) requer algum entendimento prévio do que significa ajuste fino, para cada tipo de aplicação, enquanto a) requer um modelo naturalista de como as estruturas observadas teriam sido produzidas por acaso. As propriedades matemáticas de tal modelo dependem do tipo de dados analisados. Tipicamente, deve-se usar um processo estocástico que modele uma característica dinâmica, como a evolução estelar, química ou biológica (darwiniana). No caso mais simples, o espaço de estados de tal processo estocástico é um escalar (um nucleotídeo ou aminoácido), um vetor (uma cadeia de DNA ou de aminoácidos) ou um grafo (complexos de proteínas ou redes celulares).
Uma das principais conclusões do nosso trabalho é que o ajuste fino é uma característica evidente dos sistemas biológicos. De fato, o ajuste fino é ainda mais extremo em sistemas biológicos do que em sistemas inorgânicos. Ele é detectável no âmbito da metodologia científica. A biologia é inerentemente mais complexa do que o universo em grande escala, e, portanto, o ajuste fino é uma característica ainda mais marcante. Ainda há muito trabalho a ser feito para analisar estruturas de dados mais complexas, utilizando critérios empíricos mais sofisticados. Tipicamente, tais critérios correspondem a uma função de especificidade.que não se trata apenas de uma abstração útil de um padrão subjacente, como a aptidão biológica. É necessária uma função de especificidade que, embora de origem não física, possa ser quantificada e medida empiricamente em termos de propriedades físicas, como a funcionalidade. A longo prazo, esses critérios são necessários para legitimar as explicações tanto científica quanto filosoficamente. No entanto, temos evidências suficientes para demonstrar que o ajuste fino e o design merecem atenção da comunidade científica como ferramentas conceituais para investigar e compreender o mundo natural. A principal agenda é explorar algumas possibilidades fascinantes para a ciência e criar espaço para novas ideias e explorações. Os biólogos precisam de recursos conceituais mais ricos do que as ciências físicas têm sido capazes de iniciar até agora, em termos de estruturas complexas que utilizam informações não físicas como entrada ( Ratzsch, 2010 ). Contudo, os pesquisadores ainda têm muito trabalho a fazer para estabelecer o ajuste fino como uma hipótese científica sustentável e totalmente testável e, em última instância, como uma Ciência do Design .

8. Declaração do autor

ST iniciou o estudo e OH desenvolveu o modelo estatístico na Seção 2. ST e OH conceberam o estudo e escreveram o manuscrito final em conjunto. Ambos os autores contribuíram igualmente para este trabalho e aprovam o manuscrito.

Declaração de Conflito de Interesses

Os autores declaram não possuir quaisquer interesses financeiros ou relações pessoais que possam ter influenciado o trabalho apresentado neste artigo.

Reconhecimento

Os autores agradecem a um revisor anônimo pelos valiosos comentários sobre uma versão anterior deste manuscrito.

Referências


Comentários