907 resultados para Computational Simulator
Resumo:
We introduce a computational method to optimize the in vitro evolution of proteins. Simulating evolution with a simple model that statistically describes the fitness landscape, we find that beneficial mutations tend to occur at amino acid positions that are tolerant to substitutions, in the limit of small libraries and low mutation rates. We transform this observation into a design strategy by applying mean-field theory to a structure-based computational model to calculate each residue's structural tolerance. Thermostabilizing and activity-increasing mutations accumulated during the experimental directed evolution of subtilisin E and T4 lysozyme are strongly directed to sites identified by using this computational approach. This method can be used to predict positions where mutations are likely to lead to improvement of specific protein properties.
Resumo:
Light microscopy of thick biological samples, such as tissues, is often limited by aberrations caused by refractive index variations within the sample itself. This problem is particularly severe for live imaging, a field of great current excitement due to the development of inherently fluorescent proteins. We describe a method of removing such aberrations computationally by mapping the refractive index of the sample using differential interference contrast microscopy, modeling the aberrations by ray tracing through this index map, and using space-variant deconvolution to remove aberrations. This approach will open possibilities to study weakly labeled molecules in difficult-to-image live specimens.
Resumo:
We have demonstrated that it is possible to radically change the specificity of maltose binding protein by converting it into a zinc sensor using a rational design approach. In this new molecular sensor, zinc binding is transduced into a readily detected fluorescence signal by use of an engineered conformational coupling mechanism linking ligand binding to reporter group response. An iterative progressive design strategy led to the construction of variants with increased zinc affinity by combining binding sites, optimizing the primary coordination sphere, and exploiting conformational equilibria. Intermediates in the design series show that the adaptive process involves both introduction and optimization of new functions and removal of adverse vestigial interactions. The latter demonstrates the importance of the rational design approach in uncovering cryptic phenomena in protein function, which cannot be revealed by the study of naturally evolved systems.
Resumo:
Although much of the brain’s functional organization is genetically predetermined, it appears that some noninnate functions can come to depend on dedicated and segregated neural tissue. In this paper, we describe a series of experiments that have investigated the neural development and organization of one such noninnate function: letter recognition. Functional neuroimaging demonstrates that letter and digit recognition depend on different neural substrates in some literate adults. How could the processing of two stimulus categories that are distinguished solely by cultural conventions become segregated in the brain? One possibility is that correlation-based learning in the brain leads to a spatial organization in cortex that reflects the temporal and spatial clustering of letters with letters in the environment. Simulations confirm that environmental co-occurrence does indeed lead to spatial localization in a neural network that uses correlation-based learning. Furthermore, behavioral studies confirm one critical prediction of this co-occurrence hypothesis, namely, that subjects exposed to a visual environment in which letters and digits occur together rather than separately (postal workers who process letters and digits together in Canadian postal codes) do indeed show less behavioral evidence for segregated letter and digit processing.
Resumo:
The visual responses of neurons in the cerebral cortex were first adequately characterized in the 1960s by D. H. Hubel and T. N. Wiesel [(1962) J. Physiol. (London) 160, 106-154; (1968) J. Physiol. (London) 195, 215-243] using qualitative analyses based on simple geometric visual targets. Over the past 30 years, it has become common to consider the properties of these neurons by attempting to make formal descriptions of these transformations they execute on the visual image. Most such models have their roots in linear-systems approaches pioneered in the retina by C. Enroth-Cugell and J. R. Robson [(1966) J. Physiol. (London) 187, 517-552], but it is clear that purely linear models of cortical neurons are inadequate. We present two related models: one designed to account for the responses of simple cells in primary visual cortex (V1) and one designed to account for the responses of pattern direction selective cells in MT (or V5), an extrastriate visual area thought to be involved in the analysis of visual motion. These models share a common structure that operates in the same way on different kinds of input, and instantiate the widely held view that computational strategies are similar throughout the cerebral cortex. Implementations of these models for Macintosh microcomputers are available and can be used to explore the models' properties.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.
Resumo:
Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais.
Resumo:
This paper presents an algorithm for identifying noun-phrase antecedents of pronouns and adjectival anaphors in Spanish dialogues. We believe that anaphora resolution requires numerous sources of information in order to find the correct antecedent of the anaphor. These sources can be of different kinds, e.g., linguistic information, discourse/dialogue structure information, or topic information. For this reason, our algorithm uses various different kinds of information (hybrid information). The algorithm is based on linguistic constraints and preferences and uses an anaphoric accessibility space within which the algorithm finds the noun phrase. We present some experiments related to this algorithm and this space using a corpus of 204 dialogues. The algorithm is implemented in Prolog. According to this study, 95.9% of antecedents were located in the proposed space, a precision of 81.3% was obtained for pronominal anaphora resolution, and 81.5% for adjectival anaphora.
Resumo:
In this paper we present a study of the computational cost of the GNG3D algorithm for mesh optimization. This algorithm has been implemented taking as a basis a new method which is based on neural networks and consists on two differentiated phases: an optimization phase and a reconstruction phase. The optimization phase is developed applying an optimization algorithm based on the Growing Neural Gas model, which constitutes an unsupervised incremental clustering algorithm. The primary goal of this phase is to obtain a simplified set of vertices representing the best approximation of the original 3D object. In the reconstruction phase we use the information provided by the optimization algorithm to reconstruct the faces thus obtaining the optimized mesh. The computational cost of both phases is calculated, showing some examples.
Resumo:
In this work, we present a multi-camera surveillance system based on the use of self-organizing neural networks to represent events on video. The system processes several tasks in parallel using GPUs (graphic processor units). It addresses multiple vision tasks at various levels, such as segmentation, representation or characterization, analysis and monitoring of the movement. These features allow the construction of a robust representation of the environment and interpret the behavior of mobile agents in the scene. It is also necessary to integrate the vision module into a global system that operates in a complex environment by receiving images from multiple acquisition devices at video frequency. Offering relevant information to higher level systems, monitoring and making decisions in real time, it must accomplish a set of requirements, such as: time constraints, high availability, robustness, high processing speed and re-configurability. We have built a system able to represent and analyze the motion in video acquired by a multi-camera network and to process multi-source data in parallel on a multi-GPU architecture.
Resumo:
Recent years have witnessed a surge of interest in computational methods for affect, ranging from opinion mining, to subjectivity detection, to sentiment and emotion analysis. This article presents a brief overview of the latest trends in the field and describes the manner in which the articles contained in the special issue contribute to the advancement of the area. Finally, we comment on the current challenges and envisaged developments of the subjectivity and sentiment analysis fields, as well as their application to other Natural Language Processing tasks and related domains.