959 resultados para Church architecture - Data processing - Spain
Resumo:
The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.
Resumo:
Mestrado em Intervenção Sócio-Organizacional na Saúde - Área de especialização: Políticas de Administração e Gestão de Serviços de Saúde
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
Relatório Final apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ensino do 1.º e 2.º Ciclo do Ensino Básico
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Mestrado em Engenharia Mecânica – Especialização Gestão Industrial
Resumo:
Numa Estação de Tratamento de Águas Residuais (ETAR), são elevados os custos não só de tratamento das águas residuais como também de manutenção dos equipamentos lá existentes, nesse sentido procura-se utilizar processos capazes de transformar os resíduos em produtos úteis. A Digestão Anaeróbia (DA) é um processo atualmente disponível capaz de contribuir para a redução da poluição ambiental e ao mesmo tempo de valorizar os subprodutos gerados. Durante o processo de DA é produzido um gás, o biogás, que pode ser utilizado como fonte de energia, reduzindo assim a dependência energética da ETAR e a emissão de gases com efeito de estufa para a atmosfera. A otimização do processo de DA das lamas é essencial para o aumento da produção de biogás, mas a complexidade do processo constitui um obstáculo à sua otimização. Neste trabalho, aplicaram-se Redes Neuronais Artificiais (RNA) ao processo de DA de lamas de ETAR. RNA são modelos simplificados inspirados no funcionamento das células neuronais humanas e que adquirem conhecimento através da experiência. Quando a RNA é criada e treinada, produz valores de output aproximadamente corretos para os inputs fornecidos. Foi esse o motivo para recorrer a RNA na otimização da produção de biogás no digestor I da ETAR Norte da SIMRIA, usando o programa NeuralToolsTM da PalisadeTM para desenvolvimento das RNA. Para tal, efetuou-se uma análise e tratamento de dados referentes aos últimos quatro anos de funcionamento do digestor. Os resultados obtidos permitiram concluir que as RNA modeladas apresentam boa capacidade de generalização do processo de DA. Considera-se que este caso de estudo é promissor, fornecendo uma boa base para o desenvolvimento de modelos eventualmente mais gerais de RNA que, aplicado conjuntamente com as características de funcionamento de um digestor e o processo de DA, permitirá otimizar a produção de biogás em ETAR.
Resumo:
This study explores (1) the reasons that lead Portuguese companies to use expatriates and (2) the motivations that led the repatriates to accepting an international assignment. Semistructured interviews were carried out on 44 individuals (14 responsible for organizational management of the expatriates and 30 repatriates), in seven international companies based in Portugal, and analysis of the thematic content was conducted for data processing. Results suggest that the reasons that lead Portuguese companies to expatriating employees are connected to business needs and the control of international operations, while individual motivations are linked to personal and professional ambition, the will to serve the company and organizational pressure. We concluded that Portuguese companies, like most European companies, seem to develop a strategy of International Human Resources Management (IHRM) according to an ethnocentric approach, characteristic to companies in early stages of internationalization. Similarly, the main motivations of Portuguese repatriates are identical to those of other expatriates, though the will to serve the company seems to be more valued by Portuguese repatriates than by expatriates from other countries.
Resumo:
Disaster management is one of the most relevant application fields of wireless sensor networks. In this application, the role of the sensor network usually consists of obtaining a representation or a model of a physical phenomenon spreading through the affected area. In this work we focus on forest firefighting operations, proposing three fully distributed ways for approximating the actual shape of the fire. In the simplest approach, a circular burnt area is assumed around each node that has detected the fire and the union of these circles gives the overall fire’s shape. However, as this approach makes an intensive use of the wireless sensor network resources, we have proposed to incorporate two in-network aggregation techniques, which do not require considering the complete set of fire detections. The first technique models the fire by means of a complex shape composed of multiple convex hulls representing different burning areas, while the second technique uses a set of arbitrary polygons. Performance evaluation of realistic fire models on computer simulations reveals that the method based on arbitrary polygons obtains an improvement of 20% in terms of accuracy of the fire shape approximation, reducing the overhead in-network resources to 10% in the best case.
Resumo:
À medida que são feitas modificações nas legislações em vigor em relação às energias renováveis, de forma a incentivar o uso destas, surge a necessidade de sincronização do consumo da instalação com a sua própria produção. As empresas líderes de mercado já possuem soluções que permitem a recolha de dados das instalações fotovoltaicas para posterior monitorização e disponibilização ao cliente. Contudo, estas soluções possuem pontos negativos tais como o preço e limitações na potência instalada permitida. Neste contexto, este documento apresenta a descrição de uma solução que serve como uma alternativa muito mais barata às soluções apresentadas pelas principais marcas mundiais no âmbito desta área, além de ser a única solução disponível desenvolvida em território nacional. Como prova da funcionalidade da solução, são descritos e apresentados diferentes tipos de testes, que simulam a interação de um utilizador com a solução desenvolvida, levados a cabo em instalações solares fotovoltaicas reais, sendo os seus resultados analisados e evidenciando a facilidade de utilização desta solução.
Resumo:
O presente estudo partiu do problema “Como promover aprendizagens da Matemática e do Estudo do Meio numa perspetiva interdisciplinar, explorando o mundo real?”. Neste sentido, tem como objetivos: selecionar recursos e atividades que se revelem motivadoras para os alunos; demonstrar a relevância da inter-relação de diferentes conceitos e a importância da sua ligação com as vivências dos alunos; ativar o envolvimento dos alunos para a aprendizagem da Matemática através do Estudo do meio e de situações do mundo real; estimular a perceção do aluno da presença da Matemática nos conteúdos de Estudo do Meio; fomentar a compreensão da relação dos conteúdos de Matemática e estudo do Meio. Com este propósito formularam-se as seguintes questões: (1) Que tipo de atividades se poderão proporcionar de forma a motivar os alunos para os conteúdos do Estudo do Meio e da Matemática? (2) De que forma a exploração das situações/conceções do quotidiano poderá promover o envolvimento dos alunos na aprendizagem da Matemática e do Estudo do Meio? (3) De que forma o Ensino Experimental das Ciências numa perspetiva interdisciplinar pode contribuir para desenvolver tanto as competências conceptuais (fatores do ambiente: temperatura e humidade/OTD/números racionais), como capacidades de pensamento crítico e tomada de decisão inerente? Tendo em vista os objetivos do estudo, desenvolveram-se, com uma turma do 2º ano de escolaridade, quatro situações formativas, que envolveram as disciplinas de Matemática e Estudo do Meio. O domínio de conteúdos preponderante na área de Estudo do Meio foi À descoberta do Ambiente Natural, enquanto na Matemática os domínios predominantes foram Organização e tratamento de dados e Números e operações. Foram realizadas diversas atividades experimentais, onde os alunos tiveram um papel ativo na construção dos seus conhecimentos. A investigação segue uma metodologia qualitativa, centrando-se num estudo de caso, onde se caracteriza uma experiência interdisciplinar que envolveu as disciplinas de Matemática e Estudo do Meio. Os dados foram recolhidos pela professora investigadora através de gravações de vídeo e áudio, fotografias, trabalhos dos alunos e de registos da professora investigadora. Os resultados demonstraram como os alunos mobilizaram e apropriaram os conteúdos de Matemática e Estudo do Meio. Os dados, através da análise de conteúdo, parecem iv sugerir que houve uma evolução no desempenho dos alunos a vários níveis, nomeadamente: no trabalho cooperativo, no envolvimento da tarefa, nas interações estabelecidas e na motivação para a aprendizagem da Matemática e Estudo do Meio.
Resumo:
The study of chemical diffusion in biological tissues is a research field of high importance and with application in many clinical, research and industrial areas. The evaluation of diffusion and viscosity properties of chemicals in tissues is necessary to characterize treatments or inclusion of preservatives in tissues or organs for low temperature conservation. Recently, we have demonstrated experimentally that the diffusion properties and dynamic viscosity of sugars and alcohols can be evaluated from optical measurements. Our studies were performed in skeletal muscle, but our results have revealed that the same methodology can be used with other tissues and different chemicals. Considering the significant number of studies that can be made with this method, it becomes necessary to turn data processing and calculation easier. With this objective, we have developed a software application that integrates all processing and calculations, turning the researcher work easier and faster. Using the same experimental data that previously was used to estimate the diffusion and viscosity of glucose in skeletal muscle, we have repeated the calculations with the new application. Comparing between the results obtained with the new application and with previous independent routines we have demonstrated great similarity and consequently validated the application. This new tool is now available to be used in similar research to obtain the diffusion properties of other chemicals in different tissues or organs.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Nowadays, existing 3D scanning cameras and microscopes in the market use digital or discrete sensors, such as CCDs or CMOS for object detection applications. However, these combined systems are not fast enough for some application scenarios since they require large data processing resources and can be cumbersome. Thereby, there is a clear interest in exploring the possibilities and performances of analogue sensors such as arrays of position sensitive detectors with the final goal of integrating them in 3D scanning cameras or microscopes for object detection purposes. The work performed in this thesis deals with the implementation of prototype systems in order to explore the application of object detection using amorphous silicon position sensors of 32 and 128 lines which were produced in the clean room at CENIMAT-CEMOP. During the first phase of this work, the fabrication and the study of the static and dynamic specifications of the sensors as well as their conditioning in relation to the existing scientific and technological knowledge became a starting point. Subsequently, relevant data acquisition and suitable signal processing electronics were assembled. Various prototypes were developed for the 32 and 128 array PSD sensors. Appropriate optical solutions were integrated to work together with the constructed prototypes, allowing the required experiments to be carried out and allowing the achievement of the results presented in this thesis. All control, data acquisition and 3D rendering platform software was implemented for the existing systems. All these components were combined together to form several integrated systems for the 32 and 128 line PSD 3D sensors. The performance of the 32 PSD array sensor and system was evaluated for machine vision applications such as for example 3D object rendering as well as for microscopy applications such as for example micro object movement detection. Trials were also performed involving the 128 array PSD sensor systems. Sensor channel non-linearities of approximately 4 to 7% were obtained. Overall results obtained show the possibility of using a linear array of 32/128 1D line sensors based on the amorphous silicon technology to render 3D profiles of objects. The system and setup presented allows 3D rendering at high speeds and at high frame rates. The minimum detail or gap that can be detected by the sensor system is approximately 350 μm when using this current setup. It is also possible to render an object in 3D within a scanning angle range of 15º to 85º and identify its real height as a function of the scanning angle and the image displacement distance on the sensor. Simple and not so simple objects, such as a rubber and a plastic fork, can be rendered in 3D properly and accurately also at high resolution, using this sensor and system platform. The nip structure sensor system can detect primary and even derived colors of objects by a proper adjustment of the integration time of the system and by combining white, red, green and blue (RGB) light sources. A mean colorimetric error of 25.7 was obtained. It is also possible to detect the movement of micrometer objects using the 32 PSD sensor system. This kind of setup offers the possibility to detect if a micro object is moving, what are its dimensions and what is its position in two dimensions, even at high speeds. Results show a non-linearity of about 3% and a spatial resolution of < 2µm.
Resumo:
Based in internet growth, through semantic web, together with communication speed improvement and fast development of storage device sizes, data and information volume rises considerably every day. Because of this, in the last few years there has been a growing interest in structures for formal representation with suitable characteristics, such as the possibility to organize data and information, as well as the reuse of its contents aimed for the generation of new knowledge. Controlled Vocabulary, specifically Ontologies, present themselves in the lead as one of such structures of representation with high potential. Not only allow for data representation, as well as the reuse of such data for knowledge extraction, coupled with its subsequent storage through not so complex formalisms. However, for the purpose of assuring that ontology knowledge is always up to date, they need maintenance. Ontology Learning is an area which studies the details of update and maintenance of ontologies. It is worth noting that relevant literature already presents first results on automatic maintenance of ontologies, but still in a very early stage. Human-based processes are still the current way to update and maintain an ontology, which turns this into a cumbersome task. The generation of new knowledge aimed for ontology growth can be done based in Data Mining techniques, which is an area that studies techniques for data processing, pattern discovery and knowledge extraction in IT systems. This work aims at proposing a novel semi-automatic method for knowledge extraction from unstructured data sources, using Data Mining techniques, namely through pattern discovery, focused in improving the precision of concept and its semantic relations present in an ontology. In order to verify the applicability of the proposed method, a proof of concept was developed, presenting its results, which were applied in building and construction sector.