11 resultados para Passing.
em Instituto Politécnico do Porto, Portugal
Resumo:
Fieldbus communication networks aim to interconnect sensors, actuators and controllers within process control applications. Therefore, they constitute the foundation upon which real-time distributed computer-controlled systems can be implemented. P-NET is a fieldbus communication standard, which uses a virtual token-passing medium-access-control mechanism. In this paper pre-run-time schedulability conditions for supporting real-time traffic with P-NET networks are established. Essentially, formulae to evaluate the upper bound of the end-to-end communication delay in P-NET messages are provided. Using this upper bound, a feasibility test is then provided to check the timing requirements for accessing remote process variables. This paper also shows how P-NET network segmentation can significantly reduce the end-to-end communication delays for messages with stringent timing requirements.
Resumo:
In this paper we address the real-time capabilities of P-NET, which is a multi-master fieldbus standard based on a virtual token passing scheme. We show how P-NET’s medium access control (MAC) protocol is able to guarantee a bounded access time to message requests. We then propose a model for implementing fixed prioritybased dispatching mechanisms at each master’s application level. In this way, we diminish the impact of the first-come-first-served (FCFS) policy that P-NET uses at the data link layer. The proposed model rises several issues well known within the real-time systems community: message release jitter; pre-run-time schedulability analysis in non pre-emptive contexts; non-independence of tasks at the application level. We identify these issues in the proposed model and show how results available for priority-based task dispatching can be adapted to encompass priority-based message dispatching in P-NET networks.
Resumo:
Embedded real-time applications increasingly present high computation requirements, which need to be completed within specific deadlines, but that present highly variable patterns, depending on the set of data available in a determined instant. The current trend to provide parallel processing in the embedded domain allows providing higher processing power; however, it does not address the variability in the processing pattern. Dimensioning each device for its worst-case scenario implies lower average utilization, and increased available, but unusable, processing in the overall system. A solution for this problem is to extend the parallel execution of the applications, allowing networked nodes to distribute the workload, on peak situations, to neighbour nodes. In this context, this report proposes a framework to develop parallel and distributed real-time embedded applications, transparently using OpenMP and Message Passing Interface (MPI), within a programming model based on OpenMP. The technical report also devises an integrated timing model, which enables the structured reasoning on the timing behaviour of these hybrid architectures.
Resumo:
It is widely accepted that solving programming exercises is fundamental to learn how to program. Nevertheless, solving exercises is only effective if students receive an assessment on their work. An exercise solved wrong will consolidate a false belief, and without feedback many students will not be able to overcome their difficulties. However, creating, managing and accessing a large number of exercises, covering all the points in the curricula of a programming course, in classes with large number of students, can be a daunting task without the appropriated tools working in unison. This involves a diversity of tools, from the environments where programs are coded, to automatic program evaluators providing feedback on the attempts of students, passing through the authoring, management and sequencing of programming exercises as learning objects. We believe that the integration of these tools will have a great impact in acquiring programming skills. Our research objective is to manage and coordinate a network of eLearning systems where students can solve computer programming exercises. Networks of this kind include systems such as learning management systems (LMS), evaluation engines (EE), learning objects repositories (LOR) and exercise resolution environments (ERE). Our strategy to achieve the interoperability among these tools is based on a shared definition of programming exercise as a Learning Object (LO).
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Doutor José Campos Amorim
Resumo:
Evolução, ato ou efeito de evoluir, sequência de transformações, desenvolvimento progressivo. Se tudo à nossa volta se transforma, a indústria tem de acompanhar esse sistema evolutivo, tornando assim imprescindível alterar ou melhorar processos de produção quando estes não se enquadram com a realidade, ou porque o mercado se altera, ou porque as necessidades mudam, ou por simplesmente ser mais rentável. Sendo a Galp Energia uma empresa que se encontra sempre na vanguarda da evolução tecnológica, encontra no Departamento de Engenharia Química do Instituto Superior de Engenharia do Porto um aliado na procura do melhor modo de valorizar os seus produtos. A Refinaria de Matosinhos tem atualmente duas correntes de gasolina leve e uma de refinado que apresentam grande potencialidade de valorização. Parte destas correntes incorporam atualmente a pool de nafta química da refinaria que é vendida à Repsol Polímeros. O desafio que é proposto baseia-se em valorizar essas correntes através da sua isomerização aumentando o seu RON podendo então ter como fim a pool de gasolinas. Tirando partido da tecnologia disponível para este efeito são apresentados quatro cenários de possíveis soluções. Sendo os dois primeiros excluídos por violarem restrições impostas, o terceiro e quarto cenários foram analisados de um ponto de vista económico. O terceiro cenário conduz a gasolina leve da Fábrica de Aromáticos para a pool de gasolinas sem qualquer tratamento e a gasolina leve da Fábrica de Combustíveis continua a integrar a pool de nafta química. O refinado da Fábrica de Aromáticos será enviado para um splitter, sendo a corrente de topo destinada à pool de nafta química e a corrente de fundo enviada a um reator de isomerização, Isomalk-4SM, passando previamente por uma torre de argila de forma a assegurar que a restrição em teor de olefinas no reator não é violada. O efluente, com RON maior, integrará igualmente a pool de gasolinas. No quarto cenário a corrente de refinado da Fábrica de Aromáticos não sofre qualquer tratamento, continuando a alimentar a unidade de solventes, a gasolina leve da Fábrica de Aromáticos irá diretamente para a pool de gasolinas e a gasolina leve da Fábrica de Combustíveis passará pelo Isomalk-2SM para aumentar o índice de octanos garantido assim ter condições de integrar a pool de gasolinas. Dissertação de Mestrado em Engenharia Química Isomerização de Gasolina Leve O terceiro cenário apresenta um aumento de 4 576 773 € anuais nas receitas e o quarto alcança 11 333 982 € anuais. O investimento inicial total do terceiro cenário é de 28 821 608 € quando o quarto cenário carece de um investimento inicial de apenas 18 028 349 €. Quanto aos custos associados à implementação da unidade estes demonstram-se elevados, o terceiro cenário apresenta um custo de 23 133 429 € enquanto o do quarto cenário é de 13 998 797 €. O quarto cenário apresenta-se assim como a solução mais rentável para o objetivo desta dissertação.
Resumo:
A realização deste trabalho teve por base uma solicitação por parte de uma empresa dedicada ao projecto e fabrico de moldes, assim como à injecção de plásticos, no sentido de projectar um molde para a injecção de uma peça em plástico (PP-Polipropileno +20% ) para a indústria automóvel, segundo os requisitos de qualidade exigidos pelo cliente Assim, atendendo a esses requisitos, foi planeado e elaborado o projecto do respectivo molde para a injecção, tendo em consideração todos os factores que contribuem de forma activa para a obtenção das peças desejadas, com a qualidade exigida e com o tempo de vida desejado para o molde. Tendo início na definição das cavidades e movimentos do molde, passando pela selecção dos materiais mais adequados a cada um dos componentes do molde, selecção de componentes normalizados para o molde, simulação do enchimento e necessidades de arrefecimento, até à execução do molde e análise de possíveis não conformidades nas peças nele injectadas, o trabalho acompanhou todo o processo de criação do molde, desde a recepção das especificações emanadas pelo cliente, até ao teste e realização das correcções finais. Constatou-se que o molde, após ligeiras afinações finais, cumpriu com os objectivos inicialmente traçados, permitindo a obtenção de peças com o formato e qualidade exigidas pelo cliente final.
Resumo:
Com o decorrer dos tempos e com a evolução da indústria, acresce a necessidade de aparecimento de novas construções e consequentemente de novos desafios geotécnicos. Para responder a estes novos reptos que a construção nos lança é necessário aprofundar o conhecimento acerca dos materiais que constituem o subsolo e estudar o seu comportamento quando sujeito a novas solicitações, como por exemplo sobrecargas, pois parte do cálculo de dimensionamento de fundações das novas construções dependerá destas características. Existem duas possíveis formas de identificar os materiais existentes no subsolo e caracterizá‐los: através de ensaios de laboratório e de ensaios in situ, sendo nestes últimos que nos iremos focar. Os ensaios in situ, para além de outros dados, permitem‐nos estimar com algum grau de incerteza a profundidade a que se encontra o horizonte com capacidade de suporte pretendida, quer se trate ou não do bedrock, e identificar o processo mais indicado para a retirada do material: através de um meio mecânico de escavação ou por recurso a explosivos. Com a realização de ensaios de sísmica de refração e igualmente recorrendo a ensaios executados com o penetrómetro dinâmico médio (DPM), tentamos dar resposta a estas incógnitas através do cruzamento dos dados obtidos. No entanto, este cruzamento de dados pode não ser completamente esclarecedor, levando ao aparecimento de novas incógnitas às quais não seja possível dar resposta recorrendo‐se unicamente à informação recolhida por meio destes dois métodos, pois poderão revelar‐se insuficientes. Contudo, existem muitos outros ensaios in situ que podem ser realizados e capazes de nos ajudar a complementar os dados inicialmente obtidos no sentido de diminuir ou até mesmo eliminar as incógnitas existentes, e desta forma poder identificar e caraterizar o material existente com o maior grau de segurança possível.
Resumo:
Vivemos cada vez mais numa era de crescentes avanços tecnológicos em diversas áreas. O que há uns anos atrás era considerado como praticamente impossível, em muitos dos casos, já se tornou realidade. Todos usamos tecnologias como, por exemplo, a Internet, Smartphones e GPSs de uma forma natural. Esta proliferação da tecnologia permitiu tanto ao cidadão comum como a organizações a sua utilização de uma forma cada vez mais criativa e simples de utilizar. Além disso, a cada dia que passa surgem novos negócios e startups, o que demonstra o dinamismo que este crescimento veio trazer para a indústria. A presente dissertação incide sobre duas áreas em forte crescimento: Reconhecimento Facial e Business Intelligence (BI), assim como a respetiva combinação das duas com o objetivo de ser criado um novo módulo para um produto já existente. Tratando-se de duas áreas distintas, é primeiramente feito um estudo sobre cada uma delas. A área de Business Intelligence é vocacionada para organizações e trata da recolha de informação sobre o negócio de determinada empresa, seguindo-se de uma posterior análise. A grande finalidade da área de Business Intelligence é servir como forma de apoio ao processo de tomada de decisão por parte dos analistas e gestores destas organizações. O Reconhecimento Facial, por sua vez, encontra-se mais presente na sociedade. Tendo surgido no passado através da ficção científica, cada vez mais empresas implementam esta tecnologia que tem evoluído ao longo dos anos, chegando mesmo a ser usada pelo consumidor final, como por exemplo em Smartphones. As suas aplicações são, portanto, bastante diversas, desde soluções de segurança até simples entretenimento. Para estas duas áreas será assim feito um estudo com base numa pesquisa de publicações de autores da respetiva área. Desde os cenários de utilização, até aspetos mais específicos de cada uma destas áreas, será assim transmitido este conhecimento para o leitor, o que permitirá uma maior compreensão por parte deste nos aspetos relativos ao desenvolvimento da solução. Com o estudo destas duas áreas efetuado, é então feita uma contextualização do problema em relação à área de atuação da empresa e quais as abordagens possíveis. É também descrito todo o processo de análise e conceção, assim como o próprio desenvolvimento numa vertente mais técnica da solução implementada. Por fim, são apresentados alguns exemplos de resultados obtidos já após a implementação da solução.
Resumo:
Ao longo dos últimos anos, os scanners 3D têm tido uma utilização crescente nas mais variadas áreas. Desde a Medicina à Arqueologia, passando pelos vários tipos de indústria, ´e possível identificar aplicações destes sistemas. Essa crescente utilização deve-se, entre vários factores, ao aumento dos recursos computacionais, à simplicidade e `a diversidade das técnicas existentes, e `as vantagens dos scanners 3D comparativamente com outros sistemas. Estas vantagens são evidentes em áreas como a Medicina Forense, onde a fotografia, tradicionalmente utilizada para documentar objectos e provas, reduz a informação adquirida a duas dimensões. Apesar das vantagens associadas aos scanners 3D, um factor negativo é o preço elevado. No âmbito deste trabalho pretendeu-se desenvolver um scanner 3D de luz estruturada económico e eficaz, e um conjunto de algoritmos para o controlo do scanner, para a reconstrução de superfícies de estruturas analisadas, e para a validação dos resultados obtidos. O scanner 3D implementado ´e constituído por uma câmara e por um projector de vídeo ”off-the-shelf”, e por uma plataforma rotativa desenvolvida neste trabalho. A função da plataforma rotativa consiste em automatizar o scanner de modo a diminuir a interação dos utilizadores. Os algoritmos foram desenvolvidos recorrendo a pacotes de software open-source e a ferramentas gratuitas. O scanner 3D foi utilizado para adquirir informação 3D de um crânio, e o algoritmo para reconstrução de superfícies permitiu obter superfícies virtuais do crânio. Através do algoritmo de validação, as superfícies obtidas foram comparadas com uma superfície do mesmo crânio, obtida por tomografia computorizada (TC). O algoritmo de validação forneceu um mapa de distâncias entre regiões correspondentes nas duas superfícies, que permitiu quantificar a qualidade das superfícies obtidas. Com base no trabalho desenvolvido e nos resultados obtidos, é possível afirmar que foi criada uma base funcional para o varrimento de superfícies 3D de estruturas, apta para desenvolvimento futuro, mostrando que é possível obter alternativas aos métodos comerciais usando poucos recursos financeiros.
Resumo:
Na União Europeia os sectores dos transportes e da indústria são ambos grandes consumidores de energia, mas são os edifícios residenciais e de serviços onde o consumo energético é maior, e em 2005, segundo a EnerBuilding, representavam cerca de 17% dos consumos de energia primária em termos nacionais. A energia gasta com a iluminação, o aquecimento, o arrefecimento e AQS das habitações, locais de trabalho e locais de lazer é superior à consumida pelos sectores dos transportes e da indústria. As habitações representam dois terços do consumo total de energia dos edifícios europeus, o qual aumenta todos os anos com a melhoria da qualidade de vida, traduzindo-se numa maior utilização dos sistemas de climatização. Neste sentido, e de acordo com o decreto-lei que transpõe para a legislação portuguesa a diretiva comunitária relativa ao desempenho energético dos edifícios, todos os Estados da União Europeia devem ter um sistema de certificação energética para informar o cidadão sobre a qualidade térmica dos edifícios, aquando da construção, da venda ou do arrendamento. Assim, entrou em vigor em Portugal, desde 1 de Janeiro de 2009, a obrigatoriedade de apresentação de um certificado de eficiência energética, no ato de compra, venda ou aluguer de edifícios novos e existentes. A certificação energética permite assim aos futuros utilizadores dos edifícios obter informação sobre os potenciais consumos de energia, no caso dos novos edifícios ou no caso de edifícios existentes sujeitos a grandes intervenções de reabilitação, dos seus consumos reais ou aferidos para padrões de utilização típicos, passando o consumo energético a integrar um conjunto dos aspetos importantes para a caracterização de qualquer edifício. Em edifícios de serviços, o certificado energético assegura aos utentes do edifício ou da fração que este reúne condições para garantir a eficiência energética e a adequada qualidade do ar interior. Uma vez que passamos 80% do nosso tempo em edifícios, e que isto se reflete num consumo cada vez mais elevado do sector residencial e dos serviços no consumo total energético do país, este trabalho pretende fazer a comparação dos vários equipamentos de aquecimento, de arrefecimento e de AQS e qual a influência dos mesmos na certificação energética de edifícios, e consequentemente na eficiência dos mesmos, sendo que a eficiência e a certificação energética de um edifício deve ser um aspeto relevante a levar em consideração no momento do planeamento ou da construção, bem como na aquisição de uma nova habitação. Um projeto concebido de modo a tirar proveito das condições climáticas, da orientação solar, dos ventos dominantes e utilizadas técnicas construtivas e os materiais adequados, é possível reduzir os gastos energéticos com a iluminação ou os sistemas de climatização.