Bioinformática

A bioinformática , ou Bioinformática é um campo de pesquisa multidisciplinar da biotecnologia onde trabalham biólogos , médicos, cientistas da computação , matemáticos , físicos e biólogos computacionais com o objetivo de resolver um problema científico da biologia . De maneira mais geral, a bioinformática é a aplicação da estatística e da ciência da computação às ciências biológicas. O especialista que trabalha no meio do caminho entre essas ciências e a ciência da computação é chamado de bioinformático ou bionauto .

O termo bioinformática também pode descrever, por abuso de linguagem, todas as aplicações computacionais resultantes desta pesquisa.

O uso do termo bioinformática foi documentado pela primeira vez em 1970 em uma publicação de Paulien Hogeweg e Ben Hesper (Universidade de Utrecht, Holanda), com referência ao estudo de processos de informação em sistemas bióticos.

Este campo se estende da análise do genoma à modelagem da evolução de uma população animal em um determinado ambiente, incluindo modelagem molecular , análise de imagem , montagem do genoma e reconstrução de árvores filogenéticas ( filogenia ). Esta disciplina constitui “biologia in silico  ”, por analogia com in vitro ou in vivo .

Definições e campos de aplicação

A Bioinformática é composta por todos os conceitos e técnicas necessários para a interpretação computacional da informação biológica. Vários campos de aplicação ou subdisciplinas da bioinformática surgiram:

Para alguns, a bioinformática é um ramo teórico da biologia, enquanto para outros está claramente na encruzilhada da matemática, ciência da computação e biologia.

É, de fato, analisar, modelar ou prever a informação resultante de dados biológicos experimentais.

Em um sentido ainda mais amplo, pode-se também incluir no conceito de bioinformática o desenvolvimento de ferramentas de processamento de informação baseadas em sistemas biológicos, como o uso de propriedades combinatórias do código genético para o projeto de computadores. DNA para resolver problemas algorítmicos complexos.

Análise de sequência

Desde a invenção do sequenciamento de DNA por Frederick Sanger na segunda metade da década de 1970, os avanços tecnológicos neste campo têm sido tais que o volume de sequências de DNA disponíveis tem crescido exponencialmente, com um tempo de duplicação da ordem de 15 a 18 meses, que é um pouco mais rápido do que o poder dos processadores de computador ( Lei de Moore ). Um número exponencialmente crescente de sequências complementares de genoma ou DNA está disponível, a anotação (ou interpretação de sua função biológica) ainda precisa ser realizada.

A primeira dificuldade consiste em organizar essa enorme massa de informações e colocá-la à disposição de toda a comunidade de pesquisadores. Isso foi possível graças a vários bancos de dados, acessíveis online. Globalmente, três instituições são responsáveis ​​pelo arquivamento desses dados: o NCBI nos Estados Unidos, o EBI na Europa e o DDBJ  (no) Japão. Essas instituições se coordenam para gerenciar grandes bancos de dados de sequência de nucleotídeos, como GenBank ou o banco de dados EMBL , bem como bancos de dados de sequência de proteínas, como UniProt ou TrEMBL ( consulte os links no final do artigo).

É então necessário desenvolver ferramentas de análise de sequência para poder determinar suas propriedades.

A bioinformática também está envolvida no sequenciamento , por exemplo, com o uso de chips de DNA ou biochips . O princípio de tal chip é baseado na particularidade de reformar espontaneamente a dupla hélice do ácido desoxirribonucléico voltada para a fita complementar. As quatro moléculas básicas do DNA realmente têm a particularidade de se unir duas a duas. Se um paciente for portador de uma doença, as fitas extraídas do DNA de um paciente hibridizarão com as fitas de DNA sintéticas representativas da doença.

Modelagem molecular

As macromoléculas biológicas são geralmente muito pequenas em tamanho para serem acessíveis a meios de observação direta, como a microscopia. A biologia estrutural é a disciplina que visa a reconstrução de modelos moleculares, a análise de dados proxy ou compostos. O objetivo é obter uma reconstrução tridimensional apresentando a melhor adequação aos resultados experimentais. Estes dados provêm principalmente a partir de análises cristalográficas (estudo das figuras de X - difracção de raios por um cristal ), ressonância magnética nuclear , cryomicroscopy electrónico ou de técnicas de dispersão de pequeno ângulo (dispersão de raios X ou de neutrões de espalhamento ). Os dados desses experimentos constituem dados experimentais (ou restrições) que são usados ​​para calcular um modelo da estrutura 3D. O modelo molecular obtido pode ser um conjunto de coordenadas cartesianas dos átomos que compõem a molécula, fala-se então de modelo atômico, ou um "envelope", ou seja, uma superfície 3D descrevendo a forma da molécula, a uma resolução mais baixa. . A computação está envolvida em todas as etapas que vão da experimentação ao modelo, depois na análise do modelo por visualização molecular (ver proteínas em 3D).

Outro aspecto da modelagem molecular diz respeito à previsão da estrutura 3D de uma proteína a partir de sua estrutura primária (a cadeia de aminoácidos que a compõe), levando em consideração as diferentes propriedades físico-químicas dos aminoácidos. Isso é de grande interesse porque a função e a atividade de uma proteína dependem de sua forma. Da mesma forma, a modelagem de estruturas de ácido nucleico 3D (a partir de sua sequência de nucleotídeos ) é da mesma importância que para proteínas, em particular para estruturas de RNA .

O conhecimento da estrutura tridimensional torna possível estudar os sítios ativos de uma enzima , desenvolver por computador uma série de inibidores potenciais para essa enzima e sintetizar e testar apenas aqueles que parecem adequados. Isso ajuda a reduzir os custos de tempo e dinheiro dessa pesquisa.

Da mesma forma, o conhecimento dessa estrutura torna possível facilitar o alinhamento de sequências de proteínas .

A visualização da estrutura tridimensional dos ácidos nucléicos ( RNA e DNA ) também faz parte da gama de ferramentas de bioinformática amplamente utilizadas.

Construção de árvores filogenéticas

Os chamados genes homólogos de genes descendentes do mesmo gene ancestral. Mais especificamente, esses genes seriam ortólogos se fossem encontrados em espécies diferentes (especiação sem duplicação), ou parálogos se fossem encontrados na mesma espécie (duplicação no interior do genoma).

É então possível quantificar a distância genética entre duas espécies, comparando seus genes ortólogos. Essa distância genética é representada pelo número e tipo de mutações que separam os dois genes.

Aplicado a um maior número de seres vivos, esse método permite estabelecer uma matriz de distâncias genéticas entre várias espécies. As árvores filogenéticas aproximam as espécies com maior proximidade. Vários algoritmos diferentes são usados ​​para desenhar árvores de matrizes de distância. Cada um deles é baseado em modelos de diferentes mecanismos evolutivos. Os dois métodos mais conhecidos são o método UPGMA e o método Neighbour Joining , mas existem outros métodos baseados em Máxima Verossimilhança e Ingênuo Bayesiano .

A construção de árvores filogenéticas é utilizada pelos programas de alinhamento múltiplo de sequências a fim de eliminar grande parte dos alinhamentos possíveis e, assim, limitar os tempos de cálculo: permite assim orientar o alinhamento total.

Modelagem de População


Ontologias e integração de dados

Ontologias biológicas são gráficos acíclicos direcionados de vocabulários controlados . Eles são projetados para capturar conceitos e descrições biológicas de uma forma que possam ser facilmente categorizados e analisados ​​por computadores. Uma vez categorizado dessa forma, é possível derivar valor agregado de uma análise holística e integrada.

O Consórcio OBO foi um esforço para padronizar certas ontologias. Um dos mais populares é o Gene Ontology, que descreve a função dos genes. Também existem ontologias que descrevem os fenótipos.

Exemplos de tarefas e oportunidades

Aqui está um exemplo de possíveis empregos e oportunidades:

Notas e referências

Notas

  1. Assim como a informática pode ser considerada, dependendo da situação, uma ciência ou uma tecnologia .

Referências

  1. (nl) B Hesper e P Hogeweg , “  Bioinformatica: een werkconcept  ” , Kameleon , vol.  1, n o  6,1970, p.  28-29.
  2. (em) Attwood TK Gisel A. Eriksson NE. e Bongcam-Rudloff E., "  Conceitos, marcos históricos e o lugar central da Bioinformática na Biologia Moderna: Uma Perspectiva Europeia  " , Bioinformática - Tendências e Metodologias , InTech,2011(acessado em 8 de janeiro de 2012 ) .
  3. Futura , “  Phylogenetic tree  ” , em Futura (acessado em 15 de outubro de 2019 )
  4. Jean-Baptiste Waldner, Nanoinformática e Inteligência Ambiental: Inventando o Computador do Século 21 , Londres, Hermes Science ( reimpressão  2007), 121  p. ( ISBN  978-2-7462-1516-0 e 2-7462-1516-0 )

Biografia adicional

Veja também

Artigos relacionados

Organizações

links externos