999 resultados para Simulação por computador
Resumo:
Mudança climática é um processo global, real e inequívoco. Para sua mitigação, a substituição de combustíveis fósseis por energias renováveis está sendo cada vez mais empregada. Devido à rápida velocidade de crescimento das microalgas, seu cultivo é visto como uma das alternativas mais promissoras para a produção de biocombustíveis. No presente trabalho, foi elaborado um modelo matemático fenomenológico que descreve o crescimento da microalga Chlorella vulgaris. Este modelo foi validado através de experimentos realizados em um reator piloto com capacidade de 1000 L tipo \"open pond\" (reator de raias) aberto ao ambiente, em condições não-axênicas. A variação de concentração devida à evaporação e/ou adição de água foi levada em conta no modelo. O modelo matemático desenvolvido, contendo dois parâmetros ajustáveis, descreve a variação da concentração de biomassa em função do tempo sob condições variáveis de luminosidade e temperatura. Os parâmetros ajustáveis são q (constante para conversão de intensidade luminosa em crescimento fotossintético, em klux-1 min-1) e Imax (limite máximo de intensidade luminosa, em klux). Previamente ao projeto do reator, foram realizados experimentos em reator de laboratório (utilizando a metodologia Taguchi) com o objetivo de determinar quais os fatores mais críticos para o crescimento da espécie de microalga selecionada e que, por isso, deveriam ser controlados com maior precisão. Além disso, foi analisada teoricamente a relevância da consideração do transporte de massa de CO2 no processo. Como este transporte é muito mais lento, a resistência controladora do processo é o crescimento fotossintético. Após a construção do reator piloto, foram realizados dois experimentos preliminares (os quais serviram para aperfeiçoar o aparato e o procedimento experimental) e três experimentos definitivos, registrando-se dados ambientais (temperatura, intensidade luminosa e pH) e de concentração ao longo do tempo. Utilizando os dados de temperatura e luminosidade em função do tempo como entrada, os parâmetros q e Imax otimizados foram ajustados às curvas de concentração versus tempo de cada experimento. Para tal foram desenvolvidos programas de integração de equações diferenciais e de otimização escritos em ambiente Scilab®. Verificou-se que, apesar da variabilidade devida às condições ambientais dos experimentos, obteve-se boa aderência dos dados simulados aos experimentais. Uma análise estatística dos parâmetros q e Imax calculados em cada experimento forneceu coeficientes de variação para estes parâmetros de 17 % e 5 %, respectivamente. Concluiu-se, portanto, que o modelo matemático desenvolvido neste trabalho pode ser empregado para prever o desempenho de um reator de raias em condições ambientais variáveis, bastando para isto o ajuste de dois parâmetros.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.
Resumo:
Introdução: A Distrofia Muscular de Duchenne (DMD) é caracterizada como uma fraqueza muscular progressiva que leva à incapacidade. Devido às dificuldades funcionais enfrentadas pelos indivíduos com DMD, o uso da tecnologia assistiva é essencial para proporcionar ou promover habilidades funcionais. Na DMD, além do comprometimento musculoesquelético, uma disfunção autonômica cardíaca também tem sido relatada. Assim, visamos investigar as respostas autonômicas agudas de indivíduos com DMD durante a realização de uma tarefa no computador. Método: A variabilidade da frequência cardíaca foi avaliada através de métodos lineares e não lineares, utilizando uma cinta torácica com equipamento de monitoramento de eletrocardiograma (ECG). Assim, 45 indivíduos foram incluídos no grupo com DMD e 45 no grupo de desenvolvimento típico (controle), avaliados for 20 minutos em repouso sentado e 5 minutos com a realização de uma tarefa no computador. Resultados: Os indivíduos com DMD apresentaram menor modulação cardíaca parassimpática durante o repouso, que diminuiu ainda mais durante a tarefa no computador. Conclusão: Indivíduos com DMD exibiram respostas autonômicas cardíacas mais intensas durante a tarefa no computador
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.
Resumo:
Presentación sistemas de control por computador.
Resumo:
Esta investigação teve como objetivo estudar a experiência de utilização de tablets com conteúdos educativos por estudantes do 3º ano do Ensino Primário, em contexto de sala de aula, além de identificar fatores positivos e negativos relacionados com a interação com os tablets. Pretendemos também perceber se é possível utilizar o tablet como principal ferramenta de suporte ao ensino. O estudo decorreu durante a implementação de um projeto-piloto, para o qual foi instalado um sistema tecnológico adaptado ao ensino. Foi utilizada uma amostra de 19 estudantes, com idades compreendidas entre os 8 e 9 anos. As metodologias de estudo usadas, nomeadamente observações, entrevistas e entrevistas contextuais, permitiram a recolha de dados qualitativos e quantitativos. Ficou demonstrado que utilizadores com um nível de literacia digital reduzido conseguem ter experiências satisfatórias e que a capacidade de adaptação e aprendizagem respondem às necessidades. Pela análise aos dados obtidos, pudemos concluir que os tablets podem substituir os livros e cadernos em papel, desde que integrados num sistema tecnológico adaptado, e se tiverem especificações técnicas, periféricos e aplicações semelhantes ao material disponível no projeto-piloto estudado. Ainda assim, identificámos algumas limitações importantes e sugerimos algumas soluções. As conclusões devem ser consideradas para a avaliação, desenho e implementação de novas interfaces de utilizador, baseadas em eventos de toque e destinadas à utilização num contexto similar ao descrito no estudo. As características específicas do contexto onde decorreu este estudo deixam algumas questões em aberto, que devem ser estudadadas em trabalhos futuros.
Resumo:
A Comunicação Mediada por Computador (CMC) é entendida como o relacionamento interpessoal via Internet. Este modo de comunicação atinge usuários que visam interagir e conhecer pessoas sem o limite da distância. Atualmente está sendo objeto de estudos interdisciplinares que se interessam pelas influências da CMC no comportamento de seus usuários. Trata-se de um estudo caracterizado como exploratório baseado em dados coletados através de uma pesquisa bibliográfica. Seu objetivo é refletir sobre os efeitos gerados pela difusão da CMC sobre o perfil de seus usuários, além de apresentar as contribuições da Psicologia frente aos questionamentos provindos da utilização da CMC e discutir as ambivalências (ganhos e perdas) de seu uso no comportamento de seus usuários. Percebe-se que os internautas estão transformando a forma de interação social em um ambiente desprovido de limites espaço-temporais. Portanto, este trabalho estuda as novas formas de interação, e busca compreender esse novo homem, pois, se a tecnologia traz mudanças, o indivíduo muda junto com ela. Portanto, ao acompanhar todas essas transformações que têm influenciado o homem e suas novas formas de relacionamento, estão motivando o surgimento de novas formas de contribuição da Psicologia ao estudo da CMC.
Resumo:
Considerando a relevância do tema nas discussões acerca da educação e novas tecnologias na sociedade contemporânea, a presente pesquisa de cunho exploratório, propõe compreender relação dos adultos e crianças com o computador e como ele media (ou não) está relação. Tomando os pais e a educadora como imigrantes e as crianças como nativos digitais do grupo do 1º no do EF I, de uma escola da rede particular de ensino, em São Bernardo do ampo. É uma pesquisa quantitativa na medida em que estuda frequência com que os dados aparecem entre o grupo de participantes e qualitativa uma vez que recorre a estratégias de coleta de dados tais como: roda de conversa com os educandos; questionário, e-mails e grupo de discussão com os pais (pai ou mãe); questionário, e-mails e entrevistas com a educadora. E como aporte teórico para as reflexões desta pesquisa autores como: BABIN & KOULOUMDJIAN (1989); CHAVES & SETZER (1980); HUIZINGA (2001); LÈVY (1993; 1996; 1999); KENSKY (2003; 2007); MORAN (1987; 2007); PAPERT (2008); VALENTE (2002); SANCHO (1998); QUEIROZ (1999), SÁ (2001) que contribuíram na medida em que possibilitaram uma conversa entre suas ideias, concepções e com as vozes dos participantes da pesquisa. Os resultados caminham para compreensão de que o computador para os educandos está atrelado à relação entre: infância, experiência, ludicidade como elementos para a construção do conhecimento; para os pais uma possibilidade ainda em adaptação, mas que requer orientação; e para a educadora a tecnologia parece ainda estar nos limites do campo da resistência, provalvelmente em decorrência da incongruência entre qualificação e políticas de trabalho docente. O trabalho deixa questões, esperando-se incentivar, com isso, novos estudos.
Resumo:
The study aims to examine the methodology of realistic simulation as facilitator of the teaching-learning process in nursing, and is justified by the possibility to propose conditions that envisage improvements in the training process with a view to assess the impacts attributed to new teaching strategies and learning in the formative areas of health and nursing. Descriptive study with quantitative and qualitative approach, as action research, and focus on teaching from the realistic simulation of Nursing in Primary Care in an institution of public higher education. . The research was developed in the Comprehensive Care Health discipline II, this is offered in the third year of the course in order to prepare the nursing student to the stage of Primary Health Care The study population comprised 40 subjects: 37 students and 3 teachers of that discipline. Data collection was held from February to May 2014 and was performed by using questionnaires and semi structured interviews. To do so, we followed the following sequence: identification of the use of simulation in the discipline target of intervention; consultation with professors about the possibility of implementing the survey; investigation of the syllabus of discipline, objectives, skills and abilities; preparing the plan for the execution of the intervention; preparing the checklist for skills training; construction and execution of simulation scenarios and evaluation of scenarios. Quantitative data were analyzed using simple descriptive statistics, percentage, and qualitative data through collective subject discourse. A high fidelity simulation was inserted in the curriculum of the course of the research object, based on the use of standard patient. Three cases were created and executed. In the students’ view, the simulation contributed to the synthesis of the contents worked at Integral Health Care II discipline (100%), scoring between 8 and 10 (100%) to executed scenarios. In addition, the simulation has generated a considerable percentage of high expectations for the activities of the discipline (70.27%) and is also shown as a strategy for generating student satisfaction (97.30%). Of the 97.30% that claimed to be quite satisfied with the activities proposed by the academic discipline of Integral Health Care II, 94.59% of the sample indicated the simulation as a determinant factor for the allocation of such gratification. Regarding the students' perception about the strategy of simulation, the most prominent category was the possibility of prior experience of practice (23.91%). The nervousness was one of the most cited negative aspects from the experience in simulated scenarios (50.0%). The most representative positive point (63.89%) pervades the idea of approximation with the reality of Primary Care. In addition, professors of the discipline, totaling 3, were trained in the methodology of the simulation. The study highlighted the contribution of realistic simulation in the context of teaching and learning in nursing and highlighted this strategy while mechanism to generate expectation and satisfaction among undergraduate nursing students
Resumo:
The distribution and mobilization of fluid in a porous medium depend on the capillary, gravity, and viscous forces. In oil field, the processes of enhanced oil recovery involve change and importance of these forces to increase the oil recovery factor. In the case of gas assisted gravity drainage (GAGD) process is important to understand the physical mechanisms to mobilize oil through the interaction of these forces. For this reason, several authors have developed physical models in laboratory and core floods of GAGD to study the performance of these forces through dimensionless groups. These models showed conclusive results. However, numerical simulation models have not been used for this type of study. Therefore, the objective of this work is to study the performance of capillary, viscous and gravity forces on GAGD process and its influence on the oil recovery factor through a 2D numerical simulation model. To analyze the interplay of these forces, dimensionless groups reported in the literature have been used such as Capillary Number (Nc), Bond number (Nb) and Gravity Number (Ng). This was done to determine the effectiveness of each force related to the other one. A comparison of the results obtained from the numerical simulation was also carried out with the results reported in the literature. The results showed that before breakthrough time, the lower is the injection flow rate, oil recovery is increased by capillary force, and after breakthrough time, the higher is the injection flow rate, oil recovery is increased by gravity force. A good relationship was found between the results obtained in this research with those published in the literature. The simulation results indicated that before the gas breakthrough, higher oil recoveries were obtained at lower Nc and Nb and, after the gas breakthrough, higher oil recoveries were obtained at lower Ng. The numerical models are consistent with the reported results in the literature
Resumo:
Primary processing of natural gas platforms as Mexilhão Field (PMXL-1 ) in the Santos Basin, where monoethylene glycol (MEG) has been used to inhibit the formation of hydrates, present operational problems caused by salt scale in the recovery unit of MEG. Bibliographic search and data analysis of salt solubility in mixed solvents, namely water and MEG, indicate that experimental reports are available to a relatively restricted number of ionic species present in the produced water, such as NaCl and KCl. The aim of this study was to develop a method for calculating of salt solubilities in mixed solvent mixtures, in explantion, NaCl or KCl in aqueous mixtures of MEG. The method of calculating extend the Pitzer model, with the approach Lorimer, for aqueous systems containing a salt and another solvent (MEG). Python language in the Integrated Development Environment (IDE) Eclipse was used in the creation of the computational applications. The results indicate the feasibility of the proposed calculation method for a systematic series of salt (NaCl or KCl) solubility data in aqueous mixtures of MEG at various temperatures. Moreover, the application of the developed tool in Python has proven to be suitable for parameter estimation and simulation purposes
Resumo:
This work consists of the integrated design process analyses with thermal energetic simulation during the early design stages, based on six practical cases. It aims to schematize the integration process, identifying the thermal energetic analyses contributions at each design phase and identifying the highest impact parameters on building performance. The simulations were run in the DesignBuilder energy tool, which has the same EnergyPlus engine, validated. This tool was chosen due to the flexible and user friendly graphic interface for modeling and output assessment, including the parametric simulation to compare design alternatives. The six case studies energy tools are three architectural and three retrofit projects, and the author the simulations as a consultant or as a designer. The case studies were selected based on the commitment of the designers in order to achieve performance goals, and their availability to share the process since the early pre-design analyses, allowing schematizing the whole process, and supporting the design decisions with quantifications, including energy targets. The thermoenergetic performance analyses integration is feasible since the early stages, except when only a short time is available to run the simulations. The simulation contributions are more important during the sketch and detail phases. The predesign phase can be assisted by means of reliable bioclimatic guidelines. It was verified that every case study had two dominant design variables on the general performance. These variables differ according the building characteristics and always coincide with the local bioclimatic strategies. The adaptation of alternatives to the design increases as earlier it occurs. The use of simulation is very useful: to prove and convince the architects; to quantify the cost benefits and payback period to the retrofit designer; and to the simulator confirm the desirable result and report the performance to the client
Resumo:
The city of Natal has a significant daylight availability, although it use isn’t systematically explored in schools architecture. In this context, this research aims to determine procedures for the analysis of the daylight performance in school design in Natal-RN. The method of analysis is divided in Visible Sky Factor (VSF), simulating and analyzing the results. The annual variation of the daylight behavior requires the adoption of dynamic simulation as data procedure. The classrooms were modelled in SketchUp, simulated in Daysim program and the results were assessed by means of spreadsheets in Microsoft Excel. The classrooms dimensions are 7.20mx 7.20m, with windows-to-wall-ratio (WWR) of 20%, 40% and 50%, and with different shading devices, such as standard horizontal overhang, sloped overhang, standard horizontal overhang with side view protection, standard horizontal overhang with a dropped edge, standard horizontal overhang with three horizontal louvers, double standard horizontal overhang, double standard horizontal overhang with three horizontal louvers, plus the use of shelf light in half the models with WWR of 40% and 50%. The data was organized in spreadsheets, with two intervals of UDI: between 300lux and 2000 lux and between 300lux and 3000lux. The simulation was performed with the weather file of 2009 to the city of NatalRN. The graphical outputs are illuminance curves, isolines of UDI among 300lux and 2000 lux and tables with index of occurrences of glare and to an UDI among 300lux 3000lux. The best UDI300-2000lux performance was evidenced to: Phase 1 (models with WWR of 20%), Phase 2 (models with WWR of 40% and 50% with light shelf). The best UDI300-3000lux performance was evidenced to: Phase 1 (models with WWR of 20% and 40% with light shelf) and Phase 2 (models with WWR of 40% and 50% with light shelf). The outputs prove that the daylight quality mainly depends on the shading system efficacy to avoid the glare occurrence, which determines the daylight discomfort. The bioclimatic recommendations of big openings with partial shading (with an opening with direct sunlight) resulted in illuminances level higher than the acceptable upper threshold. The improvement of the shading system percentage (from 73% to 91%) in medium-size of openings (WWR 40% and 50%) reduced or eliminate the glare occurrence without compromising the daylight zone depth (7.20m). The passive zone was determined for classrooms with satisfactory daylight performance, it was calculated the daylight zone depth rule-of-thumb with the ratio between daylight zone depth and the height of the window for different size of openings. The ratio ranged from 1.54 to 2.57 for WWR of 20%, 40% and 50% respectively. There was a reduction or elimination of glare in the passive area with light shelf, or with awning window shading.