12 resultados para research work

em Instituto Politécnico do Porto, Portugal


Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper proposes a new methodology to reduce the probability of occurring states that cause load curtailment, while minimizing the involved costs to achieve that reduction. The methodology is supported by a hybrid method based on Fuzzy Set and Monte Carlo Simulation to catch both randomness and fuzziness of component outage parameters of transmission power system. The novelty of this research work consists in proposing two fundamentals approaches: 1) a global steady approach which deals with building the model of a faulted transmission power system aiming at minimizing the unavailability corresponding to each faulted component in transmission power system. This, results in the minimal global cost investment for the faulted components in a system states sample of the transmission network; 2) a dynamic iterative approach that checks individually the investment’s effect on the transmission network. A case study using the Reliability Test System (RTS) 1996 IEEE 24 Buses is presented to illustrate in detail the application of the proposed methodology.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The idea behind creating this special issue on real world applications of intelligent tutoring systems was to bring together in a single publication some of the most important examples of success in the use of ITS technology. This will serve as a reference to all researchers working in the area. It will also be an important resource for the industry, showing the maturity of ITS technology and creating an atmosphere for funding new ITS projects. Simultaneously, it will be valuable to academic groups, motivating students for new ideas of ITS and promoting new academic research work in the area.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado incluída no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre as condições de desidroxilação para a obtenção de metacaulino com propriedades cimentíceas, a partir da fracção argilosa proveniente dos finos residuais da produção de areias de natureza granítica. O produto resultante da alteração e desintegração dos feldspatos constituintes dos granitos são ricos em caulinite. Na natureza e em particular no Norte de Portugal, existem significativos depósitos cauliníticos com características potenciadoras para a produção de metacaulino. O metacaulino utilizado neste estudo foi obtido de uma amostra de argila submetida a 750oC, por um período de tempo de 30 minutos, processo que permitiu a desidroxilação quase total da matéria-prima, transformando esta numa fase amorfa e irreversível, com propriedades pozolânicas. Os metacaulinos, também conhecidos por geopolímeros, são produtos de fácil produção utilizando uma matéria-prima abundante e proporcionam a obtenção de novos produtos que permitem a substituição parcial do cimento Portland normal na composição das pastas de betão, com vantagens significativas no comportamento mecânico e na resistência aos agentes atmosféricos. Neste estudo são apresentados os resultados dos ensaios de caracterização da matéria-prima, das condições de calcinação e do produto resultante da desidroxilação, nomeadamente a determinação da pozolanicidade e das características fundamentais para a aplicabilidade do produto. No âmbito da especialidade de Georrecursos, consideramos que este trabalho está perfeitamente adequado, já que, para além do estudo para o conhecimento das propriedades da matéria-prima, foi possível, através das alterações introduzidas com o tratamento térmico, obter um novo produto, cuja utilização terá importantes reflexos na sustentabilidade dos recursos naturais e sua utilização.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado compreendida no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre a contribuição da Fluorescência de Raios – X (FRX) no Zonamento de Georrecursos, com particular ênfase para a utilização do instrumento portátil e de ferramentas tecnológicas de vanguarda, indispensáveis à prospecção e exploração dos recursos minerais, designadamente na interpretação e integração de dados de natureza geológica e na modelação de métodos de exploração e processamento /tratamento de depósitos minerais, assim como do respectivo controlo. Esta dissertação discute os aspectos fundamentais da utilização da técnica de Fluorescência de Raios-X (portátil, FRXP), quanto à sua possibilidade de aplicação e metodologia exigida, com vista à definição de zonas com características químicas análogas do georrecurso e que preencham as exigências especificadas para a utilização da matéria-prima, nas indústrias consumidoras. Foi elaborada uma campanha de recolha de amostras de calcário proveniente da pedreira do Sangardão, em Condeixa–a–Nova, que numa primeira fase teve como objectivo principal a identificação da composição química da área em estudo e o grau de precisão do aparelho portátil de FRX. Para além desta análise foram, também, realizadas análises granulométricas por peneiração e sedimentação por Raios-X a amostras provenientes das bacias de sedimentação e do material passado no filtro prensa. Validado o método de análise por FRXP, realizou-se uma segunda fase deste trabalho, que consistiu na elaboração de uma amostragem bastante significativa de pontos, onde se realizaram análises por FRXP, de forma a obter uma maior cobertura química da área em estudo e localizar os locais chave de exploração da matéria-prima. Para uma correcta leitura dos dados analisados recorreu-se a ferramentas aliadas às novas tecnologias, as quais se mostraram um importante contributo para uma boa gestão do georrecurso em avaliação, nomeadamente o “XLSTAT” e o “Surfer” para tratamento estatístico dos dados e modelação, respectivamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This research work aims to study the use of peanut hulls, an agricultural and food industry waste, for copper and lead removal through equilibrium and kinetic parameters evaluation. Equilibrium batch studies were performed in a batch adsorber. The influence of initial pH was evaluated (3–5) and it was selected between 4.0 and 4.5. The maximum sorption capacities obtained for the Langmuir model were 0.21 ± 0.03 and 0.18 ± 0.02 mmol/g, respectively for copper and lead. In bi-component systems, competitive sorption of copper and lead was verified, the total amount adsorbed being around 0.21 mmol of metal per gram of material in both mono and bi-component systems. In the kinetic studies equilibrium was reached after 200 min contact time using a 400 rpm stirring rate, achieving 78% and 58% removal, in mono-component system, for copper and lead respectively. Their removal follows a pseudo-second-order kinetics. These studies show that most of the metals removal occurred in the first 20 min of contact, which shows a good uptake rate in all systems.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Wireless sensor networks (WSNs) have attracted growing interest in the last decade as an infrastructure to support a diversity of ubiquitous computing and cyber-physical systems. However, most research work has focused on protocols or on specific applications. As a result, there remains a clear lack of effective, feasible and usable system architectures that address both functional and non-functional requirements in an integrated fashion. In this paper, we outline the EMMON system architecture for large-scale, dense, real-time embedded monitoring. EMMON provides a hierarchical communication architecture together with integrated middleware and command and control software. It has been designed to use standard commercially-available technologies, while maintaining as much flexibility as possible to meet specific applications requirements. The EMMON architecture has been validated through extensive simulation and experimental evaluation, including a 300+ node test-bed, which is, to the best of our knowledge, the largest single-site WSN test-bed in Europe to date.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mestrado em Ensino Precoce do Inglês

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do Grau de Mestre em Empreendedorismo e Internacionalização Orientador: Professor Doutor José de Freitas Santos

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Auditoria Orientador: Mestre Helena Maria Santos de Oliveira

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tendo em conta a popularidade que as comunicações Wi-Fi têm na atualidade em vários dispositivos como computadores portáteis, telemóveis ou tablets, sendo estes utilizados praticamente por qualquer pessoa, surgiu a ideia de utilizar esta tecnologia de baixo custo e isenta de licenciamento num cenário de comunicações marítimas. Neste contexto, esta permite fornecer o acesso à Internet em banda larga a grupos de embarcações, que atualmente recorrem a tecnologias de elevado custo (satélite) e/ou de banda estreita (rádios VHF). Com o acesso em banda larga, os proprietários poderão utilizar aplicações informáticas de interesse à atividade de negócio ou de lazer, até então só disponíveis junto à costa onde existe cobertura celular. Nesta tese pretende-se fazer um estudo teórico e prático sobre o alcance e respetivo desempenho de comunicações de banda larga em ambiente marítimo, utilizando parte da gama de frequências dos 5,8 GHz, isenta de licença, e a norma IEEE 802.11n. Para se utilizar equipamento produzido em massa a operar nessa gama, existem duas normas disponíveis, a IEEE 802.11a e a IEEE 802.11n. Optou-se pelo IEEE 802.11n pois os esquemas de codificação ao nível físico permitem débitos mais elevados e MIMO. Para a realização dos testes experimentais, foi necessário elaborar um protótipo de comunicação ponto a ponto, constituído por dois nós de comunicação. Um deles foi instalado numa embarcação de pesca em colaboração com a Associação Propeixe e o outro no Edifício Transparente, no Porto, em colaboração com a entidade gestora do edifício e a Associação Porto Digital. Tanto quanto se conhece é o primeiro teste de comunicações Wi-Fi realizado nestas condições a nível mundial. Os objetivos do trabalho foram atingidos. Foi possível estabelecer comunicações Wi-Fi na banda dos 5,8 GHz até cerca de 7 km com débito médio mínimo de 1 Mbit/s. O ambiente de testes desenvolvido e os resultados obtidos servirão de base para futuros trabalhos de investigação na área das comunicações marítimas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Avaliação da variação da temperatura corporal, e a monitorização da mesma é bastante importante na prática clínica sendo, por vezes, a base de muitas decisões clínicas. Atualmente, os termómetros digitais, em particular os timpânicos são amplamente utilizados, em contexto hospitalar e domiciliário. Muitos estudos têm sido efetuados para determinar a validade das medições obtidas através de termómetros timpânicos. Os defensores destes termómetros afirmam que, se forem utilizados de forma adequada e periodicamente calibrados, a avaliação da temperatura corporal com este tipo de termómetros é eficaz, cómoda, rápida, pouco invasiva emais higiénica reduzindo o número de infeções cruzadas (FarnellMaxwell &Tan, Rhodes& Philips, 2005). A Metrologia como a ciência das medições e suas aplicações ((VIM1: 2.2) (INSTITUTO PORTUGUÊS DA QUALIDADE, 2012)), abrange todos os aspetos teóricos e práticos que asseguram a exatidão e precisão exigida num processo, procurando garantir a qualidade de produtos e serviços através da calibração de instrumentos de medição e da realização de ensaios, sendo a base fundamental para a competitividade das empresas. Só após o ano 1990, com a publicação dos resultados doHarvardMedical Practice Study (T A BRENNAN, 2004), sobre adventos adversos na área da saúde, começaram a surgir preocupação com o risco do uso de equipamentos e instrumentos sem a adequada avaliação metrológica. Neste estudo concluiu-se que 3,7 % dos pacientes hospitalizados sofriam eventos adversos devido ao uso inadequado de equipamento médico, sendo que 13,6% destes eram mortais. Pegando nesta realidade e sabendo que o não controlo de Equipamento de Monitorização e Medição é uma das causas de obtenção de 36%de não conformidades - 7.6 (NP EN ISO 9001:2008), em Auditorias da Qualidade em Serviços de Saúde (Luís Marinho – Centro Hospitalar São João), fez todo o sentido o estudo e trabalho desenvolvido. Foi efetuado um estudo, no que se refere a normalização em vigor e verificou-se que a nível metrológico muito trabalho terá que ser realizado no serviço nacional de saúde por forma este fornecer o suporte material fiável ao sistema de medições, essencial aos mais diversos sectores da saúde. Sabendo-se que os ensaios/calibrações são necessários e não são negligenciáveis na estrutura de custos das instituições de saúde, e por isso são vistas como mais uma fonte de despesas, é intenção com a realização deste trabalho, contribuir em parte para superação deste tema. Este trabalho passou pela execução/realização de um procedimento de calibração para termómetros timpânicos, tendo a necessidade de desenvolver/projetar um corpo negro. A amostra em estudo é constituída por cinco termómetros timpânicos hospitalares em uso dos diferentes serviços do CHSJ2, seleccionados completamente ao acaso. Um termómetro clínico no mínimo terá que ser calibrado a temperatura 35 ºC e 42 ºC. A calibração deverá ser realizada anualmente e por entidade acreditada. O erro máximo admissível é de ± 0,2 ºC (nas condições ambientais de funcionamento). Sem a confirmação metrológica, não é possível garantir a qualidade do produto ou serviço. A Metrologia na área da saúde desperta a exigência por produtos e serviços de qualidade. Esta tencionará ser encarada como um pilar de sustentabilidade para a qualidade na saúde, sendo absolutamente necessária a implementação de novos procedimentos e atitudes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Applications are subject of a continuous evolution process with a profound impact on their underlining data model, hence requiring frequent updates in the applications' class structure and database structure as well. This twofold problem, schema evolution and instance adaptation, usually known as database evolution, is addressed in this thesis. Additionally, we address concurrency and error recovery problems with a novel meta-model and its aspect-oriented implementation. Modern object-oriented databases provide features that help programmers deal with object persistence, as well as all related problems such as database evolution, concurrency and error handling. In most systems there are transparent mechanisms to address these problems, nonetheless the database evolution problem still requires some human intervention, which consumes much of programmers' and database administrators' work effort. Earlier research works have demonstrated that aspect-oriented programming (AOP) techniques enable the development of flexible and pluggable systems. In these earlier works, the schema evolution and the instance adaptation problems were addressed as database management concerns. However, none of this research was focused on orthogonal persistent systems. We argue that AOP techniques are well suited to address these problems in orthogonal persistent systems. Regarding the concurrency and error recovery, earlier research showed that only syntactic obliviousness between the base program and aspects is possible. Our meta-model and framework follow an aspect-oriented approach focused on the object-oriented orthogonal persistent context. The proposed meta-model is characterized by its simplicity in order to achieve efficient and transparent database evolution mechanisms. Our meta-model supports multiple versions of a class structure by applying a class versioning strategy. Thus, enabling bidirectional application compatibility among versions of each class structure. That is to say, the database structure can be updated because earlier applications continue to work, as well as later applications that have only known the updated class structure. The specific characteristics of orthogonal persistent systems, as well as a metadata enrichment strategy within the application's source code, complete the inception of the meta-model and have motivated our research work. To test the feasibility of the approach, a prototype was developed. Our prototype is a framework that mediates the interaction between applications and the database, providing them with orthogonal persistence mechanisms. These mechanisms are introduced into applications as an {\it aspect} in the aspect-oriented sense. Objects do not require the extension of any super class, the implementation of an interface nor contain a particular annotation. Parametric type classes are also correctly handled by our framework. However, classes that belong to the programming environment must not be handled as versionable due to restrictions imposed by the Java Virtual Machine. Regarding concurrency support, the framework provides the applications with a multithreaded environment which supports database transactions and error recovery. The framework keeps applications oblivious to the database evolution problem, as well as persistence. Programmers can update the applications' class structure because the framework will produce a new version for it at the database metadata layer. Using our XML based pointcut/advice constructs, the framework's instance adaptation mechanism is extended, hence keeping the framework also oblivious to this problem. The potential developing gains provided by the prototype were benchmarked. In our case study, the results confirm that mechanisms' transparency has positive repercussions on the programmer's productivity, simplifying the entire evolution process at application and database levels. The meta-model itself also was benchmarked in terms of complexity and agility. Compared with other meta-models, it requires less meta-object modifications in each schema evolution step. Other types of tests were carried out in order to validate prototype and meta-model robustness. In order to perform these tests, we used an OO7 small size database due to its data model complexity. Since the developed prototype offers some features that were not observed in other known systems, performance benchmarks were not possible. However, the developed benchmark is now available to perform future performance comparisons with equivalent systems. In order to test our approach in a real world scenario, we developed a proof-of-concept application. This application was developed without any persistence mechanisms. Using our framework and minor changes applied to the application's source code, we added these mechanisms. Furthermore, we tested the application in a schema evolution scenario. This real world experience using our framework showed that applications remains oblivious to persistence and database evolution. In this case study, our framework proved to be a useful tool for programmers and database administrators. Performance issues and the single Java Virtual Machine concurrent model are the major limitations found in the framework.