1000 resultados para simulação computacional
Resumo:
O trabalho descrito nesta tese mostra de forma detalhada a fabricação e caracterização de diferentes microssensores eletroquímicos os quais têm sido recentemente utilizados como sondas em grupo de técnicas conhecida como Scanning Electrochemical Probe Microscopy (SEPM). Desta forma, a caracterização de superfícies pode ser feita explorando diferentes fenômenos interfaciais relevantes à Ciência. Neste sentido, as interfaces de materiais cristalinos como hidroxiapatita (materiais dentários) e calcita foram o foco de estudo neste trabalho. Assim, diferentes técnicas SEPM foram exploradas no sentido de se obter informações relevantes relacionadas aos processos dentários, como a erosão ácida e hipersensibilidade. Inicialmente, microeletrodos de platina foram desenvolvidos empregando uma metodologia convencional na qual são utilizados microfibras encapsuladas em capilares de vidro. Scanning Electrochemical Microscopy (SECM) no modo amperométrico foi utilizada para obtenção de informações com relação às alterações de topografia do esmalte dentário causadas pelo contato com substâncias ácidas. Adicionalmente, SECM foi empregada no estudo do transporte de espécies eletroativas em amostras de dentina e investigações relacionadas ao bloqueio dos túbulos empregando-se cremes dentais comerciais foram realizadas. A permeação de peróxido de hidrogênio pela dentina também foi estudada. Os resultados de SECM foram comparados com imagens SEM obtidas nas mesmas condições experimentais. Microeletrodos de membrana ionófora íon-seletiva (Ion Selective Microelectrodes-ISMEs) sensíveis a íons cálcio também foram desenvolvidos e caracterizados, com subsequente aplicação em SECM no modo potenciométrico. A dissolução ácida de esmalte bovino (erosão dentária) foi investigada em diferentes valores de pH (2,5; 4,5; 6,8). Além disso, o transporte de íons cálcio através de membranas porosas sintéticas foi avaliado a uma distância tip/substrato de 300µm. Alterações no fluxo de íons cálcio foram correlacionadas em experimentos realizados na presença e ausência de campos magnéticos gerados por nanopartículas de magnetita incorporadas à membrana porosa. Microcristais de calcita facilmente sintetizados pelo método de precipitação foram utilizados como superfície modelo para investigações interfaciais, cujos resultados podem ser correlacionados aos materiais dentários. Desta forma, nanopipetas de vidro preenchidas com eletrólito suporte foram fabricadas e utilizadas como sonda em Scanning Ion Conductance Microscopy (SICM). O mapeamento topográfico de alta resolução espacial da superfície de um microcristal de calcita foi obtido utilizando o modo de varredura hopping mode. Adicionalmente, sondas multifuncionais ISME-SICM também foram desenvolvidas e caracterizadas para investigações simultâneas com relação às alterações topográficas e quantificação de íons cálcio sobre a superfície de um microcristal de calcita. A adição de reagentes ácidos no canal SICM promoveu a dissolução da superfície do microcristal, sendo obtidos dados cinéticos de dissolução. Investigações em meio neutro também foram realizadas utilizando a sonda ISME-SICM. Os resultados experimentais obtidos também foram comparados com aqueles oriundos de simulação computacional.
Resumo:
No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.
Resumo:
Neste trabalho fazemos uma revisão das novas tecnologias da informação e comunicação (TIC), definindo o que são Objetos de Aprendizagem (OA) e como eles têm sido utilizados no ensino de Física. Revisamos ainda o trabalho de Vigotski buscando indicações de sua teoria educacional para investigar a aplicabilidade de atividades didáticas em ensino de Física que lancem mão de OA no ensino médio. Elaboramos um instrumento de pesquisa voltado para professores do ensino médio para avaliar seu efetivo uso nas escolas públicas e privadas brasileiras e as limitações funcionais por eles identificadas ao utilizarem esses recursos computacionais. Com base na literatura, e sob uma ótica vigotskiana, aplicamos algumas atividades com OA pré-selecionados e avaliamos com outro instrumento de pesquisa a opinião dos alunos quanto ao seu uso para o ensino de Física. Nosso trabalho pôde corroborar a boa aceitação por parte dos alunos com relação ao seu uso, já divulgada na literatura e também por parte dos professores, mas mostrou que para além das limitações de uso dos OA, especialmente das simulações computacionais, destacadas na literatura e relacionadas às limitações cognitivas que elas podem trazer quando utilizadas de maneira indiscriminada, existem problemas mais profundos de natureza funcional que têm limitado a disseminação de seu uso efetivo pelo corpo docente.
Resumo:
Uma ocorrência ferroviária tem danos imprevisíveis, desde um simples atraso do horário do trem enquanto o socorro ferroviário encarrilha o vagão, até prejuízos milionários com grande perda de ativos (material rodante e via permanente) e, em casos extremos, até vidas humanas. Portanto, as ferrovias nacionais sempre buscam maneiras de programar ações que minimizam este risco. Uma das principais ações é estabelecer critérios de manutenção sempre justos. Entretanto, estes critérios geralmente não contemplam de maneira conjunta a dinâmica veicular e a geometria da via permanente. Neste sentido, este trabalho elabora um modelo matemático de um vagão ferroviário de alta capacidade em conjunto com a flexibilidade do suporte da via permanente. O modelo matemático foi validado e considerado satisfatório, a partir da comparação das frequências naturais obtidas no vagão real e na comparação de seu resultado produzido a partir de uma entrada medida com equipamentos de controle de geometria de linha e de medições dinâmicas realizadas por vagão instrumentado. Um método estratégico para análise da segurança do veículo foi sugerida e utilizada mostrando-se capaz de determinar os comprimentos de onda da via permanente que devem ser priorizados na manutenção, bem como na análise da segurança do vagão quando na adoção de restrições de velocidades.
Resumo:
Esta tese apresenta uma configuração em que, numa rede social regida pelo princípio da ligação preferencial, nós periféricos buscam inflacionar artificialmente seus índices de centralidade, medida pelo grau de entrada, por meio do privilégio temporário da reciprocidade de ligações com outros nós periféricos. Para construir este cenário, criou-se uma rede com as características de uma rede acadêmica de citações entre artigos, em que os nós são artigos publicados por um conjunto de periódicos, e as ligações entre eles são as citações que cada artigo faz a outros artigos existentes. Esta rede foi condensada em outra, na qual os nós são os periódicos aos quais cada artigo da primeira rede está associado, e as ligações são o total de citações que os artigos de um periódico faz aos artigos de cada outro periódico. Implementou-se um método de simulação computacional, no qual, durante alguns ciclos, foram manipulados parâmetros relacionados à quantidade total de ligações (citações) entre periódicos periféricos, de forma a induzir os efeitos desejados de reciprocidade periférica, alterando a lógica de direcionamento de citações pela atribuição de maior probabilidade para que artigos de outros periódicos periféricos recebessem ligações, afastando-se da lógica da ligação preferencial, porém sem alterar qualquer outra característica intrínseca que representasse a capacidade de um artigo ou periódico atrair novas ligações. Chamou-se esta alteração da lógica de alocação de ligações entre periódicos periféricos de Comportamento Estratégico. Observou-se que o Comportamento Estratégico é capaz de trazer benefícios de centralidade medida por grau para aqueles periódicos em que ele foi induzido, e prejuízos para os demais periódicos periféricos, porém não é suficiente para que eles saiam do quartil periférico de centralidade a que pertenciam antes da manipulação dos efeitos. Além disso, observou-se que, na ausência de elementos que alterem a capacidade intrínseca de atração de ligações de um periódico, a interrupção do Comportamento Estratégico levou aos níveis anteriores de centralidade. Também se observou que o Comportamento Estratégico acarretou em alterações de centralidade medida por autovetor estatisticamente significativas, porém não esperadas, mas que, após sua interrupção, esta retornou aos patamares anteriores à indução dos efeitos.
Resumo:
The purpose of this research is to analyze different daylighting systems in schools in the city of Natal/RN. Although with the abundantly daylight available locally, there are a scarce and diffuse architectural recommendations relating sky conditions, dimensions of daylight systems, shading, fraction of sky visibility, required illuminance, glare, period of occupation and depth of the lit area. This research explores different selected apertures systems to explore the potential of natural light for each system. The method has divided into three phases: The first phase is the modeling which involves the construction of three-dimensional model of a classroom in Sketchup software 2014, which is featured in follow recommendations presented in the literature to obtain a good quality of environmental comfort in school settings. The second phase is the dynamic performance computer simulation of the light through the Daysim software. The input data are the climate file of 2009 the city of Natal / RN, the classroom volumetry in 3ds format with the assignment of optical properties of each surface, the sensor mapping file and the user load file . The results produced in the simulation are organized in a spreadsheet prepared by Carvalho (2014) to determine the occurrence of useful daylight illuminance (UDI) in the range of 300 to 3000lux and build graphics illuminance curves and contours of UDI to identify the uniformity of distribution light, the need of the minimum level of illuminance and the occurrence of glare.
Resumo:
With an increasing number of mature fields, heavy oil recovery has performed one of the great challenges of the oil industry. The Brazilian Northeast, for example, has numerous heavy oil reservoirs are explored with the use of thermal methods. Among the types of methods used for heavy oil, there is the method of in-situ combustion, a technique in which heat is produced within the container, unlike the injection of heated fluid when the heat is generated at the surface and transported to the reservoir. In this type of process, it is common to use vertical wells as injectors and producers. However, methods which use horizontal wells like oil producers are increasingly studied because of greater contact area between the formation and combustion front. Thus, the main objective of this work was to study the different configurations of wells (CIS THAITM and CAGD) in the process of in-situ combustion in oil recovery using a semi-synthetic tank with Brazilian Northeast features. The method "toe-to-heel air injection" (THAITM) is a process of enhanced oil recovery, which is the integration of in-situ combustion with technological advances in drilling horizontal wells. This method uses horizontal wells such as oil producers, keeping vertical injection wells for injecting air. The oil drain process by differential gravitational assisted with combustion (CAGD) is an integrated, in this configuration the horizontal injector well is drilled at the top formation with a horizontal production well in the lower section. The simulations were performed in a commercial program of thermal processes, called "STARS" (Steam, Thermal, and Advanced Processes Reservoir Simulator), the company CMG (Computer Modelling Group). An analysis of the air flow injection was performed and it was found that each method had a maximum injection to the base model, a show that through this air injection limit was reduced cumulative production of oil. Analyses of operating parameters were used: injection flow, configuration and completion of wells. In the sensitivity analysis we found that the air injection flow showed greater influence on THAI method, since the CIS method the completion of the wells was the most influential parameter and CAGD configuration wells showed the greatest influence in the recovered fraction. The economic results have shown that the best case obtained in CAGD method because, despite having higher initial cost showed the best financial return compared to the best cases the CIS and THAI.
Resumo:
With an increasing number of mature fields, heavy oil recovery has performed one of the great challenges of the oil industry. The Brazilian Northeast, for example, has numerous heavy oil reservoirs are explored with the use of thermal methods. Among the types of methods used for heavy oil, there is the method of in-situ combustion, a technique in which heat is produced within the container, unlike the injection of heated fluid when the heat is generated at the surface and transported to the reservoir. In this type of process, it is common to use vertical wells as injectors and producers. However, methods which use horizontal wells like oil producers are increasingly studied because of greater contact area between the formation and combustion front. Thus, the main objective of this work was to study the different configurations of wells (CIS THAITM and CAGD) in the process of in-situ combustion in oil recovery using a semi-synthetic tank with Brazilian Northeast features. The method "toe-to-heel air injection" (THAITM) is a process of enhanced oil recovery, which is the integration of in-situ combustion with technological advances in drilling horizontal wells. This method uses horizontal wells such as oil producers, keeping vertical injection wells for injecting air. The oil drain process by differential gravitational assisted with combustion (CAGD) is an integrated, in this configuration the horizontal injector well is drilled at the top formation with a horizontal production well in the lower section. The simulations were performed in a commercial program of thermal processes, called "STARS" (Steam, Thermal, and Advanced Processes Reservoir Simulator), the company CMG (Computer Modelling Group). An analysis of the air flow injection was performed and it was found that each method had a maximum injection to the base model, a show that through this air injection limit was reduced cumulative production of oil. Analyses of operating parameters were used: injection flow, configuration and completion of wells. In the sensitivity analysis we found that the air injection flow showed greater influence on THAI method, since the CIS method the completion of the wells was the most influential parameter and CAGD configuration wells showed the greatest influence in the recovered fraction. The economic results have shown that the best case obtained in CAGD method because, despite having higher initial cost showed the best financial return compared to the best cases the CIS and THAI.
Resumo:
The thesis presents the results of research that addresses the performance of selective horizontal partitioning to promote Fire Safety in Buildings - FSB. Horizontal partitioning is a passive protection measure, settable in the early stages of the design process and controlled by the architect. However, there is a frequent reconfiguration of the rooms in academic buildings to adjust them for the space demand. Thus, large classrooms could turn into two or more smaller rooms, for example. Regardless when the subdivision occurs in the design phase or during the occupation of the building, the regulations just ensures the compartimentation of the room if all fireguard devices are present in the room. Knowing the fire's first minutes are the most important for life protection, we defend the hypothesis that a kind of partitioning ignored by regulatory standards is able to favoring the building vacancy and occupants rescue, for promote the room’s smoke exhaust. The performance of the selective horizontal partitioning due different blend of openings for smoke outlet was simulated on CFD software. The results indicate that selective horizontal partitioning is able to promote an upper smoke free layer and delay the indoor temperature growth.
Resumo:
The thesis presents the results of research that addresses the performance of selective horizontal partitioning to promote Fire Safety in Buildings - FSB. Horizontal partitioning is a passive protection measure, settable in the early stages of the design process and controlled by the architect. However, there is a frequent reconfiguration of the rooms in academic buildings to adjust them for the space demand. Thus, large classrooms could turn into two or more smaller rooms, for example. Regardless when the subdivision occurs in the design phase or during the occupation of the building, the regulations just ensures the compartimentation of the room if all fireguard devices are present in the room. Knowing the fire's first minutes are the most important for life protection, we defend the hypothesis that a kind of partitioning ignored by regulatory standards is able to favoring the building vacancy and occupants rescue, for promote the room’s smoke exhaust. The performance of the selective horizontal partitioning due different blend of openings for smoke outlet was simulated on CFD software. The results indicate that selective horizontal partitioning is able to promote an upper smoke free layer and delay the indoor temperature growth.
Resumo:
In this study, our goal was develop and describe a molecular model of the enzyme-inhibiting interaction which can be used for an optimized projection of a Microscope Force Atomic nanobiosensor to detect pesticides molecules, used in agriculture, to evaluate its accordance with limit levels stipulated in valid legislation for its use. The studied herbicide (imazaquin) is a typical member of imidazolinone family and is an inhibitor of the enzymatic activity of Acetohydroxiacid Synthase (AHAS) enzyme that is responsible for the first step of pathway for the synthesis of side-chains in amino acids. The analysis of this enzyme property in the presence of its cofactors was made to obtain structural information and charge distribution of the molecular surface to evaluate its capacity of became immobilized on the Microscopy Atomic Force tip. The computational simulation of the system, using Molecular Dynamics, was possible with the force-field parameters for the cofactor and the herbicides obtained by the online tool SwissParam and it was implemented in force-field CHARMM27, used by software GROMACS; then appropriated simulations were made to validate the new parameters. The molecular orientation of the AHAS was defined based on electrostatic map and the availability of the herbicide in the active site. Steered Molecular Dynamics (SMD) Simulations, followed by quantum mechanics calculations for more representative frames, according to the sequential QM/MM methodology, in a specific direction of extraction of the herbicide from the active site. Therefore, external harmonic forces were applied with similar force constants of AFM cantilever for to simulate herbicide detection experiments by the proposed nanobiosensor. Force value of 1391 pN and binding energy of -14048.52 kJ mol-1 were calculated.
Resumo:
Nowadays, evaluation methods to measure thermal performance of buildings have been developed in order to improve thermal comfort in buildings and reduce the use of energy with active cooling and heating systems. However, in developed countries, the criteria used in rating systems to asses the thermal and energy performance of buildings have demonstrated some limitations when applied to naturally ventilated building in tropical climates. The present research has as its main objective to propose a method to evaluate the thermal performance of low-rise residential buildings in warm humid climates, through computational simulation. The method was developed in order to conceive a suitable rating system for the athermal performance assessment of such buildings using as criteria the indoor air temperature and a thermal comfort adaptive model. The research made use of the software VisualDOE 4.1 in two simulations runs of a base case modeled for two basic types of occupancies: living room and bedroom. In the first simulation run, sensitive analyses were made to identify the variables with the higher impact over the cases´ thermal performance. Besides that, the results also allowed the formulation of design recommendations to warm humid climates toward an improvement on the thermal performance of residential building in similar situations. The results of the second simulation run was used to identify the named Thermal Performance Spectrum (TPS) of both occupancies types, which reflect the variations on the thermal performance considering the local climate, building typology, chosen construction material and studied occupancies. This analysis generates an index named IDTR Thermal Performance Resultant Index, which was configured as a thermal performance rating system. It correlates the thermal performance with the number of hours that the indoor air temperature was on each of the six thermal comfort bands pre-defined that received weights to measure the discomfort intensity. The use of this rating system showed to be appropriated when used in one of the simulated cases, presenting advantages in relation to other evaluation methods and becoming a tool for the understanding of building thermal behavior
Resumo:
Natural ventilation is an efficient bioclimatic strategy, one that provides thermal comfort, healthful and cooling to the edification. However, the disregard for quality environment, the uncertainties involved in the phenomenon and the popularization of artificial climate systems are held as an excuse for those who neglect the benefits of passive cooling. The unfamiliarity with the concept may be lessened if ventilation is observed in every step of the project, especially in the initial phase in which decisions bear a great impact in the construction process. The tools available in order to quantify the impact of projected decisions consist basically of the renovation rate calculations or computer simulations of fluids, commonly dubbed CFD, which stands for Computational Fluid Dynamics , both somewhat apart from the project s execution and unable to adapt for use in parametric studies. Thus, we chose to verify, through computer simulation, the representativeness of the results with a method of simplified air reconditioning rate calculation, as well as making it more compatible with the questions relevant to the first phases of the project s process. The case object consists of a model resulting from the recommendations of the Código de Obras de Natal/ RN, customized according to the NBR 15220. The study has shown the complexity in aggregating a CFD tool to the process and the need for a method capable of generating data at the compatible rate to the flow of ideas and are discarded during the project s development. At the end of our study, we discuss the necessary concessions for the realization of simulations, the applicability and the limitations of both the tools used and the method adopted, as well as the representativeness of the results obtained