191 resultados para bioinformàtica
Resumo:
O Brasil possui uma posição privilegiada quando se refere à produção de etanol. Por questões históricas e geográficas o país é responsável por mais de 30 % da produção mundial de etanol, com uma produção nacional de mais de 28 bilhões de litros em 2014. Para maximizar o rendimento desse processo, está em desenvolvimento a tecnologia associada ao etanol de segunda geração ou etanol lignocelulósico. Os principais desafios desta tecnologia são: melhorar a eficiência de conversão do substrato em produto e a produção em grande escala utilizando substratos de baixo custo. Com o objetivo de melhorar a eficiência do processo de conversão foram estudadas proteínas auxiliares (expansinas) que, em conjunto com celulases, melhoram a despolimerização de biomassa lignocelulósica em açúcares fermentescíveis. Além disso, realizou-se também a caracterização de enzimas ativas de carboidratos (CAZymes) de origem termofílica do organismo Thermogemmatispora sp. T81, devido a capacidade que estas proteínas apresentam de manter a atividade e conformação estrutural em altas temperaturas por um prolongado período de tempo. A partir de análises utilizando bioinformática, os genes que codificam para expansinas de Xanthomonas campestris, Bacillus licheniformis e Trichoderma reesei foram clonados e expressos em E. coli, e seus produtos gênicos (as expansinas) tiveram seus índices de sinergismo (devido atuação conjunta com coquetéis comerciais) e atividade catalítica determinados. Adicionalmente, dispondo de alinhamentos estruturais, foi proposto um mecanismo hidrolítico para elas. Em relação à bactéria Thermogemmatispora sp. T81, foram realizadas análises genômicas e proteômicas, a fim de selecionar enzimas superexpressas em meio celulósico. Seus genes foram clonados heterologamente em E. coli e o produto de expressão caracterizado bioquimicamente (cromatografia, ensaios de atividade e perfil de hidrólise) e estruturalmente (SAXS e dicroísmo circular). Os índices de sinergismo determinados foram de 2,47; 1,96 e 2,44 para as expansinas de Xanthomonas campestris, Bacillus licheniformis e Trichoderma reesei, respectivamente. A partir dos alinhamentos estruturais foi proposto a díade Asp/Glu como sitio catalítico em expansinas. As análises de proteômica possibilitaram a seleção de quatro alvos de clonagem, por apresentarem alto índice de expressão quando a bactéria foi cultivada em meio celulósico. Estas proteínas foram caracterizadas quanto a atividade e apresentaram um perfil comum: temperatura ótima de ação (de 70 a 75 °C), pH ótimo de 5, e hidrolisam preferencialmente substratos hemicelulósicos (xilano). A porcentagem de estruturais secundárias das proteínas em estudo foram confirmadas com predições teóricas ao se utilizar a técnica de dicroísmo circular. Desta maneira, os objetivos iniciais propostos neste projeto foram concluídos com a determinação do grau de sinergismo das proteínas expansinas em estudo e a proposição de um mecanismo de hidrólise para as mesmas, considerando que tais proteínas por mais de 20 anos tiveram sua atividade definida exclusivamente como acessória. Além disso, este estudo contribui com a identificação e seleção de genes para CAZymes termofilícas com aplicação biotecnológica devido às propriedades termoestáveis apresentadas.
Resumo:
A ciência tem feito uso frequente de recursos computacionais para execução de experimentos e processos científicos, que podem ser modelados como workflows que manipulam grandes volumes de dados e executam ações como seleção, análise e visualização desses dados segundo um procedimento determinado. Workflows científicos têm sido usados por cientistas de várias áreas, como astronomia e bioinformática, e tendem a ser computacionalmente intensivos e fortemente voltados à manipulação de grandes volumes de dados, o que requer o uso de plataformas de execução de alto desempenho como grades ou nuvens de computadores. Para execução dos workflows nesse tipo de plataforma é necessário o mapeamento dos recursos computacionais disponíveis para as atividades do workflow, processo conhecido como escalonamento. Plataformas de computação em nuvem têm se mostrado um alternativa viável para a execução de workflows científicos, mas o escalonamento nesse tipo de plataforma geralmente deve considerar restrições específicas como orçamento limitado ou o tipo de recurso computacional a ser utilizado na execução. Nesse contexto, informações como a duração estimada da execução ou limites de tempo e de custo (chamadas aqui de informações de suporte ao escalonamento) são importantes para garantir que o escalonamento seja eficiente e a execução ocorra de forma a atingir os resultados esperados. Este trabalho identifica as informações de suporte que podem ser adicionadas aos modelos de workflows científicos para amparar o escalonamento e a execução eficiente em plataformas de computação em nuvem. É proposta uma classificação dessas informações, e seu uso nos principais Sistemas Gerenciadores de Workflows Científicos (SGWC) é analisado. Para avaliar o impacto do uso das informações no escalonamento foram realizados experimentos utilizando modelos de workflows científicos com diferentes informações de suporte, escalonados com algoritmos que foram adaptados para considerar as informações inseridas. Nos experimentos realizados, observou-se uma redução no custo financeiro de execução do workflow em nuvem de até 59% e redução no makespan chegando a 8,6% se comparados à execução dos mesmos workflows sendo escalonados sem nenhuma informação de suporte disponível.
Resumo:
Predecir la función biológica de secuencias de Ácido Desoxirribonucleico (ADN) es unos de los mayores desafíos a los que se enfrenta la Bioinformática. Esta tarea se denomina anotación funcional y es un proceso complejo, laborioso y que requiere mucho tiempo. Dado su impacto en investigaciones y anotaciones futuras, la anotación debe ser lo más able y precisa posible. Idealmente, las secuencias deberían ser estudiadas y anotadas manualmente por un experto, garantizando así resultados precisos y de calidad. Sin embargo, la anotación manual solo es factible para pequeños conjuntos de datos o genomas de referencia. Con la llegada de las nuevas tecnologías de secuenciación, el volumen de datos ha crecido signi cativamente, haciendo aún más crítica la necesidad de implementaciones automáticas del proceso. Por su parte, la anotación automática es capaz de manejar grandes cantidades de datos y producir un análisis consistente. Otra ventaja de esta aproximación es su rapidez y bajo coste en relación a la manual. Sin embargo, sus resultados son menos precisos que los manuales y, en general, deben ser revisados ( curados ) por un experto. Aunque los procesos colaborativos de la anotación en comunidad pueden ser utilizados para reducir este cuello de botella, los esfuerzos en esta línea no han tenido hasta ahora el éxito esperado. Además, el problema de la anotación, como muchos otros en el dominio de la Bioinformática, abarca información heterogénea, distribuida y en constante evolución. Una posible aproximación para superar estos problemas consiste en cambiar el foco del proceso de los expertos individuales a su comunidad, y diseñar las herramientas de manera que faciliten la gestión del conocimiento y los recursos. Este trabajo adopta esta línea y propone MASSA (Multi-Agent System to Support functional Annotation), una arquitectura de Sistema Multi-Agente (SMA) para Soportar la Anotación funcional...
Resumo:
La cantidad de datos biológicos y médicos que se produce hoy en día es enorme, y se podría decir que el campo de las ciencias de la vida forma parte ya del club del Big Data. Estos datos contienen información crucial que pueden ayudar a comprender mejor los mecanismos moleculares en los sistemas biológicos. Este conocimiento es fundamental para el progreso en el diagnóstico y en el tratamiento de las enfermedades. La Bioinformática, junto con la Biología Computacional, son disciplinas que se encargan de organizar, analizar e interpretar los datos procedentes de la Biología Molecular. De hecho, la complejidad y la heterogeneidad de los problemas biológicos requieren de un continuo diseño, implementación y aplicación de nuevos métodos y algoritmos. La minería de datos biológicos es una tarea complicada debido a la naturaleza heterogénea y compleja de dichos datos, siendo éstos muy dependientes de detalles específicos experimentales. Esta tesis se basa en el estudio de un problema biomédico complejo: la menor probabilidad de desarrollar algunos tipos de cáncer en pacientes con ciertos trastornos del sistema nervioso central (SNC) u otros trastornos neurológicos, y viceversa. Denominamos a esta condición como comorbilidad inversa. Desde el punto de vista médico, entender mejor las conexiones e interacciones entre cáncer y trastornos neurológicos podría mejorar la calidad de vida y el efecto de la asistencia médica de millones de personas en todo el mundo. Aunque la comorbilidad inversa ha sido estudiada a nivel médico, a través de estudios epidemiológicos, no se ha investigado en profundidad a nivel molecular...
Resumo:
Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.
Resumo:
Tese de mestrado, Bioinformática e Biologia Computacional (Bioinformática), Universidade de Lisboa, Faculdade de Ciências, 2016
Resumo:
Many species have specialized to live in the most varied existing environments showing the remarkable adaptability of the microbial world the most diverse physicochemical conditions. Environments exposed to natural radiation and metals are scarce around the world, presenting a microbiota still unknown. With a total number estimated between 4 and 6 x 1030 microrganisms on earth, they constitute an enormous biological and genetic pool to be explored. Metagenomic approach independent of cultivation, provides a new form to access to the potential genomic environmental samples becoming a powerful tool for the elucidation of ecological functions, metabolic profiles, as well as to identify new biomolecules. In this context, the genetic material of environmental soil and water samples from Açude Boqueirao Parelhas-RN, under the influence of natural radiation and the presence of metals, was extracted, pirosequencing and the generated sequences were analyzed by bioinformatics programs (MG-RAST and STAMP). Taxonomic comparative profiles of both samples showed high abundance of Domain Bacteria, followed by a small portion attributable to Eucaryota Domains, Archaea and Viruses. Proteobacteria, Actinobacteria and Bacterioidetes phyla showed the greater dominance in both samples. Important genera and species associated with resistance to various stressors found in region were observed. Sequences related to oxidative and heat stress, DNA replication and repair, and resistance to toxic compounds were observed, suggesting a significant relationship between the microbiota and their metabolic profile, influenced by regional environmental variables. The results of this study add valuable and unpublished data on the composition of microbial communities in these regions
Resumo:
The sugarcane is a monocot plant grown in tropical and subtropical regions, with Brazil being the largest producer. Despite its economic importance, little is known about the molecular flowering process in sugarcane. This physiological process can promote a loss up to 60% in sugar or bioethanol. Thus, this work had as objective characterize a HINT1 homologous gene previously identified in subtractive libraries of flowering. Genomic analysis of gene and promoter region structure allowed the observation that there are at least two distinct genes homologous to HINT on sugarcane. Bioinformatics analyses showed the conservation of the characteristic protein domain of HIT superfamily and indicate a phylogenetic relationship associated to cell location. Moreover, a possible relation with the SBTILISIN-like protein family through the information available in interatomas was observed. This suggests that the HINT gene of sugarcane can be related to plant development, there are several possibilities of interactions in the regulation of floral induction process, because the sequences present in regulatory regions indicate that differential expression of HINT was related to with climatic factors in the Northeast region of Brazil as well as to biotic stress and phytohormones. Furthermore, the sugarcane phenotypes indicate that the influence of HINT may happen due to product accumulation of its enzymatic activity. For these characteristics this gene can be used as a marker in the selection of new varieties.
Resumo:
Research on temporal-order perception uses temporal-order judgment (TOJ) tasks or synchrony judgment (SJ) tasks in their binary SJ2 or ternary SJ3 variants. In all cases, two stimuli are presented with some temporal delay, and observers judge the order of presentation. Arbitrary psychometric functions are typically fitted to obtain performance measures such as sensitivity or the point of subjective simultaneity, but the parameters of these functions are uninterpretable. We describe routines in MATLAB and R that fit model-based functions whose parameters are interpretable in terms of the processes underlying temporal-order and simultaneity judgments and responses. These functions arise from an independent-channels model assuming arrival latencies with exponential distributions and a trichotomous decision space. Different routines fit data separately for SJ2, SJ3, and TOJ tasks, jointly for any two tasks, or also jointly for the three tasks (for common cases in which two or even the three tasks were used with the same stimuli and participants). Additional routines provide bootstrap p-values and confidence intervals for estimated parameters. A further routine is included that obtains performance measures from the fitted functions. An R package for Windows and source code of the MATLAB and R routines are available as Supplementary Files.
Resumo:
El presente trabajo tiene su origen en la necesidad de herramientas de apoyo al aprendizaje para los alumnos en las clases de Genética de la Facultad de Biología de la Universidad Complutense de Madrid. En esta asignatura, el equipo docente ha desarrollado aplicaciones para dispositivos móviles destinadas a los alumnos. Las aplicaciones les permiten trabajar con materiales relacionados con aspectos clave de la asignatura. Estas aplicaciones contienen apartados de teoría y ejercicios. Los ejercicios cuentan con asistentes automatizados que guían al alumno para su realización y autocorrección. En su forma actual, las aplicaciones presentan limitaciones tanto desde el punto de vista de su diseño como de la funcionalidad que ofrecen. El actual diseño no aplica las técnicas comunes de Ingeniería del Software respecto a aplicaciones cliente-servidor. Ello las hace difíciles de mantener cuando se plantea abordar nuevas funcionalidades y plataformas, o facilitar la creación de nuevos materiales de la asignatura. Ello ha limitado su expansión para incorporar nuevos tipos de materiales (en particular diferentes tipos de ejercicios), integrarlas con otras herramientas (por ejemplo, el Campus Virtual de la universidad) o permitir un apoyo efectivo a la comunidad de aprendizaje formada por alumnos y docentes (por ejemplo, para que los docentes supervisen la evolución de los alumnos y estos puedan obtener información adicional de los profesores). Para abordar esta situación se propone una aplicación móvil que engobe a todas las aplicaciones anteriores que se habían creado para las clases de Genética. Se utilizará un modelo cliente-servidor para mejorar sus capacidades funcionales, de modo que cumpla con los requisitos establecidos. Entre estos se incluye un control de los usuarios que utilizan la aplicación, y que se optimice la memoria local utilizada por la aplicación, permitiendo así el uso de imágenes más pesadas. Además, este modelo facilitará las tareas de mantenimiento de la aplicación, por ejemplo incluir nuevo material. Por otro lado, también se propone rediseñar la interfaz de la aplicación, de modo que sea más accesible desde el punto de vista de la usabilidad.
Resumo:
El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.
Resumo:
The last decades of the 20th century defined the genetic engineering advent, climaxing in the development of techniques, such as PCR and Sanger sequencing. This, permitted the appearance of new techniques to sequencing whole genomes, identified as next-generation sequencing. One of the many applications of these techniques is the in silico search for new secondary metabolites, synthesized by microorganisms exhibiting antimicrobial properties. The peptide antibiotics compounds can be classified in two classes, according to their biosynthesis, in ribosomal or nonribosomal peptides. Lanthipeptides are the most studied ribosomal peptides and are characterized by the presence of lanthionine and methylanthionine that result from posttranslational modifications. Lanthipeptides are divided in four classes, depending on their biosynthetic machinery. In class I, a LanB enzyme dehydrate serine and threonine residues in the C-terminus precursor peptide. Then, these residues undergo a cyclization step performed by a LanC enzyme, forming the lanthionine rings. The cleavage and the transport of the peptide is achieved by the LanP and LanT enzymes, respectively. Although, in class II only one enzyme, LanM, is responsible for the dehydration and cyclization steps and also only one enzyme performs the cleavage and transport, LanT. Pedobacter sp. NL19 is a Gram-negative bacterium, isolated from sludge of an abandon uranium mine, in Viseu (Portugal). Antibacterial activity in vitro was detected against several Gram-positive and Gram-negative bacteria. Sequencing and in silico analysis of NL19 genome revealed the presence of 21 biosynthetic clusters for secondary metabolites, including nonribosomal and ribosomal peptides biosynthetic clusters. Four lanthipeptides clusters were predicted, comprising the precursor peptides, the modifying enzymes (LanB and LanC), and also a bifunctional LanT. This result revealed the hybrid nature of the clusters, comprising characteristics from two distinct classes, which are poorly described in literature. The phylogenetic analysis of their enzymes showed that they clustered within the bacteroidetes clade. Furthermore, hybrid gene clusters were also found in other species of this phylum, revealing that it is a common characteristic in this group. Finally, the analysis of NL19 colonies by MALDI-TOF MS allowed the identification of a 3180 Da mass that corresponds to the predicted mass of a lanthipeptide encoded in one of the clusters. However, this result is not fully conclusive and further experiments are needed to understand the full potential of the compounds encoded in this type of clusters. In conclusion, it was determined that NL19 strain has the potential to produce diverse secondary metabolites, including lanthipeptides that were not functionally characterized so far.
Resumo:
Fertilization is a multistep and complex process culminating in the merge of gamete membranes, cytoplasmic unity and fusion of genome. CD81 is a tetraspanin protein that participates in sperm-oocyte interaction, being present at the oocyte surface. CD81 has also been implicated in other biological processes, however its specific function and molecular mechanisms of action remain to be elucidated. The interaction between CD81 and its binding partner proteins may underlie the CD81 involvement in a variety of cellular processes and modulate CD81/interactors specific functions. Interestingly, in a Yeast two Hybrid system previously performed in our lab, CD81 has emerged as a putative interactor of the Amyloid Precursor Protein (APP). In the work here described, bioinformatics analyses of CD81 interacting proteins were performed and the retrieved information used to construct a protein-protein interaction network, as well as to perform Gene Ontology enrichment analyses. CD81 expression was further evaluated in CHO, GC-1 and SH-SY5Y cell lines, and in human sperm cells. Additionally, its subcellular localization was analyzed in sperm cells and in the neuronal-like SH-SY5Y cell line. Subsequently, coimmunoprecipitation assays were performed in CHO and SH-SY5Y cells to attempt to prove the physical interaction between CD81 and APP. A functional interaction between these two proteins was accessed thought the analyses of the effects of CD81 overexpression on APP levels. A co-localization analysis of CD81 and some interactors proteins retrieved from the bioinformatics analyses, such as APP, AKT1 and cytoskeleton-related proteins, was also performed in sperm cells and in SH-SY5Y cells. The effects of CD81 in cytoskeleton remodeling was evaluated in SH-SY5Y cells through monitoring the effects of CD81 overexpression in actin and tubulin levels, and analyzing the colocalization between overexpressed CD81 and F-actin. Our results showed that CD81 is expressed in all cell lines tested, and also provided the first evidence of the presence of CD81 in human sperm cells. CD81 immunoreactivity was predominantly detected in the sperm head, including the acrosome membrane, and in the midpiece, where it co-localized with APP, as well as in the post-acrosomal region. Furthermore, CD81 co-localizes with APP in the plasma membrane and in cellular projections in SH-SY5Y cells, where CD81 overexpression has an influence on APP levels, also visible in CHO cells. The analysis of CD81 interacting proteins such as AKT1 and cytoskeletonrelated proteins showed that CD81 is involved in a variety of pathways that may underlie cytoskeleton remodeling events, related to processes such as sperm motility, cell migration and neuritogenesis. These results deepen our understanding on the functions of CD81 and some of its interactors in sperm and neuronal cells.
Resumo:
Ink Disease is considered one of the most important causes of the decline of chestnut orchards. The break in yield of Castanea sativa Mill is caused by two species: Phytophthora cinnamomi and Phytophthora cambivora, being the first one the foremost pathogen of ink disease in Portugal. P. cinnamomi is one of the most aggressive and widespread plant pathogen with nearly 1,000 host species. This oomycete causes enormous economic losses and it is responsible for the decline of many plant species in Europe and worldwide. Up to now no efficient treatments are available to fight these pathogens. Because of the importance of chestnut at economical and ecological levels, especially in Portugal, it becomes essential to explore the molecular mechanisms that determine the interaction between Phytophthora species and host plants through the study of proteins GIP (glucanase inhibitor protein) and NPP1 (necrosis-inducing Phytophthora protein 1) produced by P. cinnamomi during the infection. The technique of RNA interference was used to knockdown the gip gene of P. cinnamomi. Transformants obtained with the silenced gene have been used to infect C. sativa, in order to determine the effect of gene silencing on the plant phenotype. To know more about the function of GIP and NPP1 involved in the mechanism of infection, the ORF’s of gip and npp1 genes have been cloned to the pTOR-eGFP vector for a future observation of P. cinnamomi transformants with fluorescent microscopy and determination of the subcellular localization. Moreover the prediction by bioinformatics tools indicates that both GIP and NPP1 proteins are secreted. The results allow to predict the secretory destination of both GIP and NPP1 proteins and confirm RNAi as a potential alternative biological tool in the control and management of P. cinnamomi. Keywords:
Resumo:
The microorganisms play very important roles in maintaining ecosystems, which explains the enormous interest in understanding the relationship between these organisms as well as between them and the environment. It is estimated that the total number of prokaryotic cells on Earth is between 4 and 6 x 1030, constituting an enormous biological and genetic pool to be explored. Although currently only 1% of all this wealth can be cultivated by standard laboratory techniques, metagenomic tools allow access to the genomic potential of environmental samples in a independent culture manner, and in combination with third generation sequencing technologies, the samples coverage become even greater. Soils, in particular, are the major reservoirs of this diversity, and many important environments around us, as the Brazilian biomes Caatinga and Atlantic Forest, are poorly studied. Thus, the genetic material from environmental soil samples of Caatinga and Atlantic Forest biomes were extracted by direct techniques, pyrosequenced, and the sequences generated were analyzed by bioinformatics programs (MEGAN MG-RAST and WEBCarma). Taxonomic comparative profiles of the samples showed that the phyla Proteobacteria, Actinobacteria, Acidobacteria and Planctomycetes were the most representative. In addition, fungi of the phylum Ascomycota were identified predominantly in the soil sample from the Atlantic Forest. Metabolic profiles showed that despite the existence of environmental differences, sequences from both samples were similarly placed in the various functional subsystems, indicating no specific habitat functions. This work, a pioneer in taxonomic and metabolic comparative analysis of soil samples from Brazilian biomes, contributes to the knowledge of these complex environmental systems, so far little explored