930 resultados para Aritmética computacional
Resumo:
Natural air ventilation is the most import passive strategy to provide thermal comfort in hot and humid climates and a significant low energy strategy. However, the natural ventilated building requires more attention with the architectural design than a conventional building with air conditioning systems, and the results are less reliable. Therefore, this thesis focuses on softwares and methods to predict the natural ventilation performance from the point of view of the architect, with limited resource and knowledge of fluid mechanics. A typical prefabricated building was modelled due to its simplified geometry, low cost and occurrence at the local campus. Firstly, the study emphasized the use of computational fluid dynamics (CFD) software, to simulate the air flow outside and inside the building. A series of approaches were developed to make the simulations possible, compromising the results fidelity. Secondly, the results of CFD simulations were used as the input of an energy tool, to simulate the thermal performance under different rates of air renew. Thirdly, the results of temperature were assessed in terms of thermal comfort. Complementary simulations were carried out to detail the analyses. The results show the potentialities of these tools. However the discussions concerning the simplifications of the approaches, the limitations of the tools and the level of knowledge of the average architect are the major contribution of this study
Resumo:
A significant part of the life of a mechanical component occurs, the crack propagation stage in fatigue. Currently, it is had several mathematical models to describe the crack growth behavior. These models are classified into two categories in terms of stress range amplitude: constant and variable. In general, these propagation models are formulated as an initial value problem, and from this, the evolution curve of the crack is obtained by applying a numerical method. This dissertation presented the application of the methodology "Fast Bounds Crack" for the establishment of upper and lower bounds functions for model evolution of crack size. The performance of this methodology was evaluated by the relative deviation and computational times, in relation to approximate numerical solutions obtained by the Runge-Kutta method of 4th explicit order (RK4). Has been reached a maximum relative deviation of 5.92% and the computational time was, for examples solved, 130,000 times more higher than achieved by the method RK4. Was performed yet an Engineering application in order to obtain an approximate numerical solution, from the arithmetic mean of the upper and lower bounds obtained in the methodology applied in this work, when you don’t know the law of evolution. The maximum relative error found in this application was 2.08% which proves the efficiency of the methodology "Fast Bounds Crack".
Resumo:
Dissertação de Mestrado para a obtenção de grau de Mestre em Engenharia Eletrotécnica Ramo de Automação e Eletrónica Industrial
Resumo:
A cor da superfície dos alimentos é o primeiro parâmetro de qualidade avaliado pelos consumidores, e é critico para a aceitação do produto, então a medição adequada da cor é uma importante ferramenta. Nesta pesquisa avaliou-se a variação da cor em corvina (Micropogonias furnieri) armazenada em gelo durante 16 dias; os parâmetros de luminosidade (L*), valor cromático a*, valor cromático b*, variação total da cor (ΔE) e croma (C*) foram obtidos por sistema de visão computacional, e por colorímetro Konica Minolta CR-400. O frescor da corvina baseada nas mudanças da cor das brânquias foi avaliado utilizando um sistema de visão computacional. Também se modelou a oxidação da mioglobina em files de burriquete (Pogonias cromis), utilizando os parâmetros de vermelho (valor a* e R). Para registrar as mudanças da cor durante 57,6 h utilizou-se um sistema de visão computacional, a análise química realizou-se determinando a concentração de metamioglobina (%). Na avaliação da cor de corvina armazenada em gelo, o sistema de visão computacional mostrou diferenças significativas para L*, a*, ΔE e C*, enquanto que o colorímetro mostrou diferenças significativas para L* e ΔE, o único parâmetro que não apresentou diferenças entre instrumentos foi ΔE durante a avaliação da corvina armazenada em gelo. O coeficiente de correlação entre os parâmetros da cor (L*, a* e b*) das brânquias da corvina armazenada em gelo pelo tempo de armazenamento foi de 0,9747. O sistema de visão computacional registrou as mudanças da cor em filés de burriquete e se modelaram as mudanças utilizando um modelo exponencial. O sistema de visão computacional mostrou ser mais sensível às mudanças da cor durante a avaliação da cor na corvina armazenada em gelo. É possível prognosticar o tempo de armazenamento da corvina em gelo em função da mudança da cor das brânquias. Assim, foi possível modelar a variação da mioglobina em filés de burriquete utilizando sistemas de visão computacional para registrar ditas mudanças. Os sistemas de visão computacional têm grande capacidade para registrar as mudanças da cor e é possível utiliza-los para avaliar os alimentos em função da cor.
Resumo:
Atualmente, sensores remotos e computadores de alto desempenho estão sendo utilizados como instrumentos principais na coleta e produção de dados oceanográficos. De posse destes dados, é possível realizar estudos que permitem simular e prever o comportamento do oceano por meio de modelos numéricos regionais. Dentre os fatores importantes no estudo da oceanografia, podem ser destacados àqueles referentes aos impactos ambientais, de contaminação antrópica, utilização de energias renováveis, operações portuárias e etc. Contudo, devido ao grande volume de dados gerados por instituições ambientais, na forma de resultados de modelos globais como o HYCOM (Hybrid Coordinate Ocean Model) e dos programas de Reanalysis da NOAA (National Oceanic and Atmospheric Administration), torna-se necessária a criação de rotinas computacionais para realizar o tratamento de condições iniciais e de contorno, de modo que possam ser aplicadas a modelos regionais como o TELEMAC3D (www.opentelemac.org). Problemas relacionados a baixa resolução, ausência de dados e a necessidade de interpolação para diferentes malhas ou sistemas de coordenadas verticais, tornam necessária a criação de um mecanismo computacional que realize este tratamento adequadamente. Com isto, foram desenvolvidas rotinas na linguagem de programação Python, empregando interpoladores de vizinho mais próximo, de modo que, a partir de dados brutos dos modelos HYCOM e do programa de Reanalysis da NOAA, foram preparadas condições iniciais e de contorno para a realização de uma simulação numérica teste. Estes resultados foram confrontados com outro resultado numérico onde, as condições foram construídas a partir de um método de interpolação mais sofisticado, escrita em outra linguagem, e que já vem sendo utilizada no laboratório. A análise dos resultados permitiu concluir que, a rotina desenvolvida no âmbito deste trabalho, funciona adequadamente para a geração de condições iniciais e de contorno do modelo TELEMAC3D. Entretanto, um interpolador mais sofisticado deve ser desenvolvido de forma a aumentar a qualidade nas interpolações, otimizar o custo computacional, e produzir condições que sejam mais realísticas para a utilização do modelo TELEMAC3D.
Resumo:
Throughout the history of western music, composers have relied on “outside-of-time” structures which have served as musical “prime matter” until the moment of their temporal inscription. These structures have traditionally been the scales, rhythmic values, formal schemes, harmonic rules, etc., that composers have employed over and over again. They are to the composer what marble is to the sculptor or colors are to the painter. The advent of computer technology has opened new avenues that allow composers to develop new structures and enlarge their creative horizon. I started my musical training at a very early age, and at the same time I had a lot of scientific curiosity. As soon as I had my first computer (a Commodore 64), I started to experiment, to establish relationships between scientific processes and the world of sound. To date, and following the footsteps of I. Xenakis (although from a different aesthetic perspective), my compositions have always been informed, to a lesser or greater degree, by some underlying scientific idea, and this task can hardly be achieved without computation. Furthermore, today, computer-composers open the possibility to access and use an ever-growing repository of musical material goes a step forward in this direction. And this raises many questions, some of them of a deep philosophical ground.
Resumo:
En el campo bibliotecológico para desarrollar instrumentos de trabajo que nos permitan comunicarnos con las demás unidades y clientes de información, debemos pensar en normalizar nuestros procesos.Normalizar, en el sentido más amplio, significa seguir reglas que hagan un registro uniforme en cualquier lugar del mundo. Esto se logra mediante la aplicación de códigos y normas que han sido aceptadas internacionalmente por los organismos creados para este fin.El valor de la normalización estriba en evitar la duplicación de los esfuerzos de la catalogación en las diferentes unidades de información documental y facilitar el intercambio de datos bibliográficos tan pronto como sea posible. También, cosiste en darle al cliente la posibilidad de localizar la información en un a forma homogénea que obvie las barreras idiomáticas.
Resumo:
Com esta dissertação de mestrado pretende-se chegar a um modelo que permita alinhar os diferentes planos organizacionais de uma organização ou de um domínio pertencente a esta. A metodologia utilizada na condução desta dissertação foi proposta por Raymond Quivy e LucVan Campenhoudt. Esta ajuda o autor e o leitor, a acompanhar gradualmente o desenvolvimento através das várias fases que a metodologia prevê. Para garantir a coerência de um modelo é necessário um estudo prévio do tema em questão, por este motivo foi necessária uma revisão bibliográfica que abrangesse: os conceitos mais generalistas da área de engenharia organizacional, a linguagem e termos técnicos da segurança computacional, o estado atual da problemática da segurança de informação na Força Aérea e possíveis modelos que poderiam revelar-se úteis no desenvolvimento do objetivo desta dissertação como o Bussiness Motivation Model. Durante o desenvolvimento do modelo surgiu a necessidade de definir o conceito de «Plano Organizacional» pois este estava pouco explorado na comunidade científica e fazia parte integrante do tema desta dissertação, definindo-o como tendo um conjunto de atributos que o identifica e universais a qualquer plano da organização. Identificados os atributos dos planos organizacionais foi possível concluir quais os fatores de alinhamento entre eles, a partir deste ponto surgiu a proposta de modelo capaz satisfazer o objetivo desta dissertação. A validação é atingida através de uma instanciação do modelo no domínio da segurança computacional na Força Aérea, com algumas propostas de alinhamento. No último capítulo é feita uma revisão de todo o trabalho, destacando alguns pontos mais importantes e possibilitando assim ao leitor terminar com uma visão global de toda a dissertação.
Resumo:
Dissertação (Mestrado em Tecnologia Nuclear)
Resumo:
El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.
Resumo:
Conjuntos numéricos y aritmética, plantea, de manera descriptiva, un recorrido por los diferentes conjuntos numéricos. La pretensión inicialmente, ha sido partir del planteamiento y definición del conjunto numérico más elemental como lo es el conjunto de los números naturales, hasta llegar a su ampliación, por necesidades de cálculo y solución de operaciones, al conjunto de los números complejos. Por esta vía se transita, entonces, pasando por el conjunto de los números enteros, racionales, irracionales y reales, sin abordar, en ningún momento, estos conjuntos con enfoques o análisis axiomáticos. La colección Lecciones de matemáticas, iniciativa del Departamento de Ciencias Básicas de la Universidad de Medellín y del grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático, tratado con mayor profundidad que en un curso regular. Las temáticas incluyen: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empleo de software para la enseñanza de las matemáticas. Todas las carátulas de la colección vienen ilustradas, a manera de identificación, con diseños de la geometría fractal cuya fuente u origen se encuentra referenciada en las páginas interiores de los textos.
Resumo:
This work focuses on the creation and applications of a dynamic simulation software in order to study the hard metal structure (WC-Co). The technological ground used to increase the GPU hardware capacity was Geforce 9600 GT along with the PhysX chip created to make games more realistic. The software simulates the three-dimensional carbide structure to the shape of a cubic box where tungsten carbide (WC) are modeled as triangular prisms and truncated triangular prisms. The program was proven effective regarding checking testes, ranging from calculations of parameter measures such as the capacity to increase the number of particles simulated dynamically. It was possible to make an investigation of both the mean parameters and distributions stereological parameters used to characterize the carbide structure through cutting plans. Grounded on the cutting plans concerning the analyzed structures, we have investigated the linear intercepts, the intercepts to the area, and the perimeter section of the intercepted grains as well as the binder phase to the structure by calculating the mean value and distribution of the free path. As literature shows almost consensually that the distribution of the linear intercepts is lognormal, this suggests that the grain distribution is also lognormal. Thus, a routine was developed regarding the program which made possible a more detailed research on this issue. We have observed that it is possible, under certain values for the parameters which define the shape and size of the Prismatic grain to find out the distribution to the linear intercepts that approach the lognormal shape. Regarding a number of developed simulations, we have observed that the distribution curves of the linear and area intercepts as well as the perimeter section are consistent with studies on static computer simulation to these parameters.
Resumo:
El objetivo de este proyecto es desarrollar una aplicación multiplataforma que, dadas las preferencias de los clientes por las posibles características que se pueden dar a un producto, y dados los productos que vende la competencia, decida las características del producto a vender para que éste obtenga el mayor número de clientes, bien de manera inmediata, o bien a largo plazo. La solución óptima de este tipo de problemas es intratable, ya que no se pueden resolver en tiempo polinómico, por lo que nosotros utilizamos soluciones heurísticas, concretamente: algoritmos genéticos, algoritmos minimax, algoritmos de aprendizaje automático y algoritmos de interpolación. Además, realizamos un caso de estudio con datos reales obtenidos a través de una serie de encuestas utilizando una plataforma web, concretamente de la empresa Feebbo, que nos permitió obtener resultados sobre las preferencias de más de 500 encuestados. Las preguntas de las encuestas se centraron en un tipo de producto en particular, en nuestro caso teléfonos móviles.
Resumo:
Tese de Doutoramento com a especialização em Arquitetura, apresentada na Faculdade de Arquitetura da Universidade de Lisboa, para obtenção do grau de Doutor.