917 resultados para Computational Vaccinology
Resumo:
A variabilidade natural dos solos torna complexo o conhecimento de suas propriedades na elaboração de projetos geotécnicos, sendo a determinação da resistência ao cisalhamento não drenada um parâmetro importante nas análises de estabilidade de solos moles. Os ensaios de laboratório de cone e palheta, não convencionais, os ensaios de campo de palheta e piezocone e os ensaios de compressão simples e triaxial não adensado e não drenado foram utilizados para mensurar a resistência não drenada de uma camada de argila marinha mole localizada na planície costeira central brasileira. Os ensaios de laboratório foram realizados em amostras indeformadas coletadas com amostradores de pistão estacionário em vertical próxima à realização dos ensaios de campo. O sítio foi investigado preliminarmente por sondagens de simples reconhecimento, sendo apresentado o perfil estratigráfico por meio de modelagem computacional. Foram também realizados ensaios para caracterização física (análise granulométrica, teor de umidade, limites de liquidez e plasticidade, densidade real dos grãos) e mineralógica (difração de raios X), e ensaios de adensamento para obtenção do histórico de tensões e classificação de qualidade das amostras indeformadas. Os valores de resistência não drenada obtidos pelos ensaios de laboratório foram comparados ao perfil contínuo de resistência determinado empiricamente pelo ensaio de piezocone, com fator de cone Nkt calibrado pelo ensaio de palheta de campo, apresentando boa concordância, com a variabilidade natural do solo influenciando de forma preponderante a qualidade das amostras na variação entre os resultados. Os valores de resistência obtidos pelos ensaios de laboratório de cone e palheta foram comparados entre si, apresentando boa compatibilidade. Ambos, quando comparados ao ensaio de palheta de campo, não apresentaram boa concordância. Os resultados de resistência obtidos pelos ensaios de compressão simples e triaxial apresentaram boa compatibilidade com os resultados do ensaio de laboratório de cone, o que não ocorreu com os resultados do ensaio de laboratório de palheta. Na comparação entre a resistência normalizada pela tensão de sobreadensamento obtida pelos diversos métodos e algumas correlações empíricas da literatura internacional, foi observado para as amostras de solo com índice de plasticidade superior a 60% boa concordância com as correlações de Mesri (1975) e Jamiolkowski et al (1985). Os ensaios não convencionais apresentaram boa confiabilidade, que aliado a simplicidade e agilidade de execução, justificam a difusão destes na prática da investigação geotécnica brasileira como método alternativo para complementar e dar suporte às estimativas de resistência não drenada de solos moles.
Resumo:
Utilizar robôs autônomos capazes de planejar o seu caminho é um desafio que atrai vários pesquisadores na área de navegação de robôs. Neste contexto, este trabalho tem como objetivo implementar um algoritmo PSO híbrido para o planejamento de caminhos em ambientes estáticos para veículos holonômicos e não holonômicos. O algoritmo proposto possui duas fases: a primeira utiliza o algoritmo A* para encontrar uma trajetória inicial viável que o algoritmo PSO otimiza na segunda fase. Por fim, uma fase de pós planejamento pode ser aplicada no caminho a fim de adaptá-lo às restrições cinemáticas do veículo não holonômico. O modelo Ackerman foi considerado para os experimentos. O ambiente de simulação de robótica CARMEN (Carnegie Mellon Robot Navigation Toolkit) foi utilizado para realização de todos os experimentos computacionais considerando cinco instâncias de mapas geradas artificialmente com obstáculos. O desempenho do algoritmo desenvolvido, A*PSO, foi comparado com os algoritmos A*, PSO convencional e A* Estado Híbrido. A análise dos resultados indicou que o algoritmo A*PSO híbrido desenvolvido superou em qualidade de solução o PSO convencional. Apesar de ter encontrado melhores soluções em 40% das instâncias quando comparado com o A*, o A*PSO apresentou trajetórias com menos pontos de guinada. Investigando os resultados obtidos para o modelo não holonômico, o A*PSO obteve caminhos maiores entretanto mais suaves e seguros.
Resumo:
Mapas Conceituais são representações gráficas do conhecimento de uma pessoa num dado momento e área de conhecimento. Por sua natureza investigativa, são utilizados como ferramentas de apoio em abordagens pedagógicas que objetivam promover a aprendizagem significativa. No entanto, o processo de avaliação de um mapa tende a ser custoso pois acarreta uma pesada carga de processamento cognitivo por parte do avaliador, já que este precisa mapear os conceitos e relações em busca de nuances de conhecimento alí presentes. Essa pesquisa tem por objetivo aumentar o nível de abstração nas interações entre o avaliador e os mapas conceituais fornecendo uma camada intermediária de inteligência computacional que favoreça a comunicação por meio de perguntas e respostas em linguagem natural, fornecendo ao avaliador ferramentas que lhe permita examinar o conteúdo do mapa conceitual sem exigir deste o mapeamento visual dos conceitos e relações presentes nos mapas avaliados. Uma ferramenta é prototipada e uma prova de conceito apresentada. A análise da arquitetura proposta permitiu definir uma arquitetura final com características que permitem potencializar o uso de mapas conceituais e facilitar diversas operações pedagógicas com estes. Essa pesquisa situa-se na área de investigação de sistemas de perguntas e resposta, aplicando técnicas de processamento de linguagem natural para análise da pergunta e interpretação do mapa conceitual e aplica técnica de inteligência artificial para inferir respostas às perguntas.
Resumo:
A demanda por água do setor agrícola vem crescendo a cada ano, bem como o aperfeiçoamento do manejo da irrigação. Ainda assim, em locais onde a água encontra-se escassa, os conflitos entre usos e usuários devido a disputas para acesso à água tendem a se intensificar. Na maioria das vezes esse problema está relacionado à ausência de cobertura florestal, levando, por vezes, a problemas socioambientais. Nesse contexto, a pesquisa buscou avaliar o impacto da implantação de sistemas agroflorestais (SAF’s) irrigados na condição hídrica local (de escassez), estabelecendo-se estratégias que os torne atrativos ambientalsocial- e economicamente. Assim, por meio de simulação computacional, alternativas de consórcios agroflorestais foram avaliadas, tomando-se como referência uma região piloto, típica da agricultura espírito-santense, constituída por pequenas propriedades agrícolas de base familiar, inseridas parcialmente em APPs. As espécies banana, pupunha e goiaba foram selecionadas para compor os cenários agroflorestais. Os resultados da pesquisa mostram que os SAF’s irrigados são uma alternativa no sentido de minimizar os conflitos por demandas de água em regiões de escassez hídrica, com a redução de tais demandas o comprometimento de rendimentos financeiros. Além disso, os SAF’s são alternativas para diversificação da renda e para tentar controlar a sazonalidade dos preços de mercado.
Resumo:
Neste trabalho, analisamos aspectos relacionados a como a tecnologia computacional é utilizada no Atendimento Educacional Especializado (AEE) e como se deu a formação de professores para utilizar esses recursos. Para tanto, delimitamos os seguintes objetivos específicos: investigar a utilização da tecnologia assistiva (TA) computacional no âmbito das salas de recursos multifuncionais (SRM); problematizar as tensões, dificuldades e possibilidades relacionadas à TA com ênfase na tecnologia computacional para o AEE; analisar a formação do professor de educação especial para o AEE tendo como recurso a TA com ênfase na tecnologia computacional, visando à mediação dos processos de aprendizagem. O aporte teórico deste trabalho foi a abordagem histórico-cultural, tomando por referência os estudos de Vigotski e seus colaboradores. Trata-se de uma pesquisa qualitativa que fez uso de diferentes instrumentos metodológicos como, os grupos focais, o questionário online e a entrevista semiestruturada. Para desenvolvê-lo, realizamos a coleta de dados em diferentes contextos, começando pelos grupos focais da pesquisa inaugural do Oneesp, que serviram como dispositivo para esta pesquisa, seguida da aplicação de um questionário aos professores participantes da pesquisa-formação desenvolvida como um desdobramento no estado do Espírito Santo da pesquisa inaugural do Oneesp pelos integrantes do Oeeesp e da aplicação in loco de entrevistas semiestruturadas com professores de educação especial, de uma SRM do Tipo II. Foram oitenta e nove professores participantes na pesquisa do Oneesp, trinta professores na pesquisa-formação do Oeeesp e dois professores para aplicação da entrevista semiestruturada in loco, respectivamente. Esses dois professores participaram tanto da pesquisa do Oneesp como da pesquisa do Oeeesp. Analisamos esses três momentos, dos quais emergiram os apontamentos que nos proporcionaram pensar, com base nas narrativas orais e escritas dos professores: sua formação para uso da TA computacional; seu entendimento sobre sua formação para este fim; seus anseios por uma formação mais direcionada; a forma como utilizam a tecnologia na sala de recursos; seus entendimentos sobre as dificuldades e possibilidades relacionadas a TA com ênfase na tecnologia computacional para o AEE. Após essas análises, concluímos que poucos professores que atuam nas SRM tiveram uma formação que possibilitasse a aplicação das tecnologias computacionais em sua mediação pedagógica, aliando teoria e prática, com momentos de formação que privilegiassem os momentos presenciais e em laboratórios, onde possam interagir com os computadores e suas ferramentas simbólicas. Sem essa familiaridade com os recursos computacionais, os professores acabam sentindo-se inseguros para utilizá-los, deixando de potencializar, pela via desses recursos, os processos de ensinoaprendizagem do aluno com deficiência. Faz-se necessário um investimento nesse tipo de formação e, mais do que isso, que se viabilize para os professores que atuam ou que pretendem atuar nas SRM. A partir de uma formação apropriada é possível fazer com que os professores utilizem os recursos computacionais como mediadores dos processos de ensino-aprendizagem de seus alunos.
Resumo:
This study is focused on the establishment of relationships between the injection moulding processing conditions, the applied thermomechanical environment (TME) and the tensile properties of talc-filled polypropylene,adopting a new extended concept of thermomechanical indices (TMI). In this approach, TMI are calculated from computational simulations of the moulding process that characterise the TME during processing, which are then related to the mechanical properties of the mouldings. In this study, this concept is extended to both the filling and the packing phases, with new TMI defined related to the morphology developed during these phases. A design of experiments approach based on Taguchi orthogonal arrays was adopted to vary the injection moulding parameters (injection flow rate, injection temperature, mould wall temperature and holding pressure), and thus, the TME. Results from analysis of variance for injection-moulded tensile specimens have shown that among the considered processing conditions, the flow rate is the most significant parameter for the Young’s modulus; the flow rate and melt temperature are the most significant for the strain at break; and the holding pressure and flow rate are the most significant for the stress at yield. The yield stress and Young’s modulus were found to be governed mostly by the thermostress index (TSI, related to the orientation of the skin layer), whilst the strain at break depends on both the TSI and the cooling index (CI, associated to the crystallinity degree of the core region). The proposed TMI approach provides predictive capabilities of the mechanical response of injection-moulded components, which is a valuable input during their design stage.
Resumo:
In this work the critical indices β, γ , and ν for a three-dimensional (3D) hardcore cylinder composite system with short-range interaction have been obtained. In contrast to the 2D stick system and the 3D hardcore cylinder system, the determined critical exponents do not belong to the same universality class as the lattice percolation,although they obey the common hyperscaling relation for a 3D system. It is observed that the value of the correlation length exponent is compatible with the predictions of the mean field theory. It is also shown that, by using the Alexander-Orbach conjuncture, the relation between the conductivity and the correlation length critical exponents has a typical value for a 3D lattice system.
Resumo:
In this work, we consider the numerical solution of a large eigenvalue problem resulting from a finite rank discretization of an integral operator. We are interested in computing a few eigenpairs, with an iterative method, so a matrix representation that allows for fast matrix-vector products is required. Hierarchical matrices are appropriate for this setting, and also provide cheap LU decompositions required in the spectral transformation technique. We illustrate the use of freely available software tools to address the problem, in particular SLEPc for the eigensolvers and HLib for the construction of H-matrices. The numerical tests are performed using an astrophysics application. Results show the benefits of the data-sparse representation compared to standard storage schemes, in terms of computational cost as well as memory requirements.
Resumo:
A hierarchical matrix is an efficient data-sparse representation of a matrix, especially useful for large dimensional problems. It consists of low-rank subblocks leading to low memory requirements as well as inexpensive computational costs. In this work, we discuss the use of the hierarchical matrix technique in the numerical solution of a large scale eigenvalue problem arising from a finite rank discretization of an integral operator. The operator is of convolution type, it is defined through the first exponential-integral function and, hence, it is weakly singular. We develop analytical expressions for the approximate degenerate kernels and deduce error upper bounds for these approximations. Some computational results illustrating the efficiency and robustness of the approach are presented.
Resumo:
Background: Regulating mechanisms of branching morphogenesis of fetal lung rat explants have been an essential tool for molecular research. This work presents a new methodology to accurately quantify the epithelial, outer contour and peripheral airway buds of lung explants during cellular development from microscopic images. Methods: The outer contour was defined using an adaptive and multi-scale threshold algorithm whose level was automatically calculated based on an entropy maximization criterion. The inner lung epithelial was defined by a clustering procedure that groups small image regions according to the minimum description length principle and local statistical properties. Finally, the number of peripheral buds were counted as the skeleton branched ends from a skeletonized image of the lung inner epithelial. Results: The time for lung branching morphometric analysis was reduced in 98% in contrast to the manual method. Best results were obtained in the first two days of cellular development, with lesser standard deviations. Non-significant differences were found between the automatic and manual results in all culture days. Conclusions: The proposed method introduces a series of advantages related to its intuitive use and accuracy, making the technique suitable to images with different lightning characteristics and allowing a reliable comparison between different researchers.
Resumo:
Regulating mechanisms of branchingmorphogenesis of fetal lung rat explants have been an essential tool formolecular research.This work presents a new methodology to accurately quantify the epithelial, outer contour, and peripheral airway buds of lung explants during cellular development frommicroscopic images. Methods.Theouter contour was defined using an adaptive and multiscale threshold algorithm whose level was automatically calculated based on an entropy maximization criterion. The inner lung epithelium was defined by a clustering procedure that groups small image regions according to the minimum description length principle and local statistical properties. Finally, the number of peripheral buds was counted as the skeleton branched ends from a skeletonized image of the lung inner epithelia. Results. The time for lung branching morphometric analysis was reduced in 98% in contrast to themanualmethod. Best results were obtained in the first two days of cellular development, with lesser standard deviations. Nonsignificant differences were found between the automatic and manual results in all culture days. Conclusions. The proposed method introduces a series of advantages related to its intuitive use and accuracy, making the technique suitable to images with different lighting characteristics and allowing a reliable comparison between different researchers.
Resumo:
In daily cardiology practice, assessment of left ventricular (LV) global function using non-invasive imaging remains central for the diagnosis and follow-up of patients with cardiovascular diseases. Despite the different methodologies currently accessible for LV segmentation in cardiac magnetic resonance (CMR) images, a fast and complete LV delineation is still limitedly available for routine use. In this study, a localized anatomically constrained affine optical flow method is proposed for fast and automatic LV tracking throughout the full cardiac cycle in short-axis CMR images. Starting from an automatically delineated LV in the end-diastolic frame, the endocardial and epicardial boundaries are propagated by estimating the motion between adjacent cardiac phases using optical flow. In order to reduce the computational burden, the motion is only estimated in an anatomical region of interest around the tracked boundaries and subsequently integrated into a local affine motion model. Such localized estimation enables to capture complex motion patterns, while still being spatially consistent. The method was validated on 45 CMR datasets taken from the 2009 MICCAI LV segmentation challenge. The proposed approach proved to be robust and efficient, with an average distance error of 2.1 mm and a correlation with reference ejection fraction of 0.98 (1.9 ± 4.5%). Moreover, it showed to be fast, taking 5 seconds for the tracking of a full 4D dataset (30 ms per image). Overall, a novel fast, robust and accurate LV tracking methodology was proposed, enabling accurate assessment of relevant global function cardiac indices, such as volumes and ejection fraction.
Resumo:
É bem conhecido que a invenção da escrita foi um momento capital na história da Comunicação, e que a reflexão filosófica de Platão foi disso uma consequência. Novas mutações surgem hoje com a emergência de novos conceitos de «leitor», «co-autor», «texto», «hipertexto» e «não linearidade». Analisamos essa alteração resultante do surgimento das novas tecnologias digitais, mostrando como estas modificaram a relação entre escrita e leitura. Decorreu daí o surgimento da ideia de uma «comunicação sem livro», que nos coloca na fronteira paradoxal entre a afirmação borgeana de que a «biblioteca é interminável» e a possibilidade de reconstruir em hipertexto a biblioteca virtual. Mostramos as novas possibilidade de interactividade daí resultantes, com a deslocação do paradigma da função autor para a função leitor, sendo que as Ciências da Comunicação não se podem alhear dessa mutação fundamental.
Resumo:
The main intend of this work, is to determinate the Specific Absorption Rate (SAR) on human head tissues exposed to radiation caused by sources of 900 and 1800MHz, since those are the typical frequencies for mobile communications systems nowadays. In order to determinate the SAR, has been used the FDTD (Finite Difference Time Domain), which is a numeric method in time domain, obtained from the Maxwell equations in differential mode. In order to do this, a computational model from the human head in two dimensions made with cells of the smallest possible size was implemented, respecting the limits from computational processing. It was possible to verify the very good efficiency of the FDTD method in the resolution of those types of problems.