999 resultados para Polinômios - Zeros reais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação foi realizada no âmbito do Mestrado de Engenharia e Gestão Industrial da Escola Superior de Estudos Industriais e de Gestão, de Vila do Conde. O projeto desenvolvido tem como tema principal a Otimização de processos de Logística in-house baseado num projeto, em contexto empresarial da empresa cliente, Continental Mabor S.A., da Rangel Distribuição e Logística, S.A. Este projeto tem como objetivo a “aglomeração” de dois armazéns do cliente, devido à necessidade de ocupação do armazém de produto acabado interno, para aumento da área de produção. Inicialmente foi feita uma revisão de literatura sobre os temas mais relevantes de suporte para o projeto, nomeadamente na otimização e melhoria contínua. Seguidamente é apresentado o Grupo Rangel, bem como a Rangel Distribuição e Logística, S.A., onde se enquadra o projeto e para se perceber o enquadramento e objetivo. A metodologia usada, caso de estudo, permitiu a aplicação de conceitos e ferramentas usados na literatura neste contexto, como ferramentas de otimização e melhoria continua como as melhores práticas de Kaizen-Lean. Na fase de diagnóstico do atual sistema, foi realizado um mapeamento de fluxo de processos e uma descrição detalhada do layout dos dois armazéns: Armazém de Produto Acabado (APA) e Armazém de Produto Acabado Externo (APAE), bem como todos os recursos, quer técnicos quer humanos necessários. Verificamos ao longo deste projeto várias limitações, inclusive limitações impostas pelo cliente, tal como não aprovar um estudo para um novo layout do armazém. Foi aprovado apenas a replicação do já existente. Com isto, depararam-se constrangimentos na gestão deste projeto. Os custos aumentaram significativamente, embora estes não sejam apresentados por questões de confidencialidade, principalmente com a necessidade de aquisição de novos equipamentos retráteis, e mais baterias para os mesmos, devido às grandes distâncias que irão ser percorridas. Finalmente foi projetado o sistema futuro, de acordo com as necessidades reais do cliente tendo em consideração a otimização de recursos e uma gestão magra (Lean Management). Foi desenvolvida a implementação da metodologia “Kaizen diário”, a dar início em 2016 juntamente com o novo projeto APAE. Com esta projeção foram identificados problemas e implicações no projeto, bem como possíveis melhorias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 2006, a IEA (Agência Internacional de Energia), publicou alguns estudos de consumos mundiais de energia. Naquela altura, apontava na fabricação de produtos, um consumo mundial de energia elétrica, de origem fóssil de cerca 86,16 EJ/ano (86,16×018 J) e um consumo de energia nos sistemas de vapor de 32,75 EJ/ano. Evidenciou também nesses estudos que o potencial de poupança de energia nos sistemas de vapor era de 3,27 EJ/ano. Ou seja, quase tanto como a energia consumida nos sistemas de vapor da U.E. Não se encontraram números relativamente a Portugal, mas comparativamente com outros Países publicitados com alguma similaridade, o consumo de energia em vapor rondará 0,2 EJ/ano e por conseguinte um potencial de poupança de cerca 0,02 EJ/ano, ou 5,6 × 106 MWh/ano ou uma potência de 646 MW, mais do que a potência de cinco barragens Crestuma/Lever! Trata-se efetivamente de muita energia; interessa por isso perceber o onde e o porquê deste desperdício. De um modo muito modesto, pretende-se com este trabalho dar algum contributo neste sentido. Procurou-se evidenciar as possibilidades reais de os utilizadores de vapor de água na indústria reduzirem os consumos de energia associados à sua produção. Não estão em causa as diferentes formas de energia para a geração de vapor, sejam de origem fóssil ou renovável; interessou neste trabalho estudar o modo de como é manuseado o vapor na sua função de transporte de energia térmica, e de como este poderá ser melhorado na sua eficiência de cedência de calor, idealmente com menor consumo de energia. Com efeito, de que servirá se se optou por substituir o tipo de queima para uma mais sustentável se a jusante se continuarem a verificarem desperdícios, descarga exagerada nas purgas das caldeiras com perda de calor associada, emissões permanentes de vapor para a atmosfera em tanques de condensado, perdas por válvulas nos vedantes, purgadores avariados abertos, pressão de vapor exageradamente alta atendendo às temperaturas necessárias, “layouts” do sistema de distribuição mal desenhados, inexistência de registos de produção e consumos de vapor, etc. A base de organização deste estudo foi o ciclo de vapor: produção, distribuição, consumo e recuperação de condensado. Pareceu importante incluir também o tratamento de água, atendendo às implicações na transferência de calor das superfícies com incrustações. Na produção de vapor, verifica-se que os maiores problemas de perda de energia têm a ver com a falta de controlo, no excesso de ar e purgas das caldeiras em exagero. Na distribuição de vapor aborda-se o dimensionamento das tubagens, necessidade de purgas a v montante das válvulas de controlo, a redução de pressão com válvulas redutoras tradicionais; será de destacar a experiência americana no uso de micro turbinas para a redução de pressão com produção simultânea de eletricidade. Em Portugal não se conhecem instalações com esta opção. Fabricantes da República Checa e Áustria, têm tido sucesso em algumas dezenas de instalações de redução de pressão em diversos países europeus (UK, Alemanha, R. Checa, França, etc.). Para determinação de consumos de vapor, para projeto ou mesmo para estimativa em máquinas existentes, disponibiliza-se uma série de equações para os casos mais comuns. Dá-se especial relevo ao problema que se verifica numa grande percentagem de permutadores de calor, que é a estagnação de condensado - “stalled conditions”. Tenta-se também evidenciar as vantagens da recuperação de vapor de flash (infelizmente de pouca tradição em Portugal), e a aplicação de termocompressores. Finalmente aborda-se o benchmarking e monitorização, quer dos custos de vapor quer dos consumos específicos dos produtos. Esta abordagem é algo ligeira, por manifesta falta de estudos publicados. Como trabalhos práticos, foram efetuados levantamentos a instalações de vapor em diversos sectores de atividades; 1. ISEP - Laboratório de Química. Porto, 2. Prio Energy - Fábrica de Biocombustíveis. Porto de Aveiro. 3. Inapal Plásticos. Componentes de Automóvel. Leça do Balio, 4. Malhas Sonix. Tinturaria Têxtil. Barcelos, 5. Uma instalação de cartão canelado e uma instalação de alimentos derivados de soja. Também se inclui um estudo comparativo de custos de vapor usado nos hospitais: quando produzido por geradores de vapor com queima de combustível e quando é produzido por pequenos geradores elétricos. Os resultados estão resumidos em tabelas e conclui-se que se o potencial de poupança se aproxima do referido no início deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de equipamentos robóticos para o processo de soldadura por arco elétrico teve um forte crescimento nas décadas de 80 e 90, altura em que o custo e fiabilidade da tecnologia passou a permitir a integração de robôs em linhas de produção ou em células de fabrico. Depressa cresceram as exigências de uma produção com qualidade repetitiva e facilmente ajustável, e as restrições ao uso de processos manuais ou de tecnologias com pouca flexibilidade. Desde o início do século XXI que a renovação de uma estação de fabrico de peças soldadas para produção em série, especialmente no setor automóvel, parece forçada à integração de robôs industriais, que assim se tornaram símbolos de produtividade. A KAMAZ encontra-se atualmente a renovar alguns dos seus processos de fabrico, incluindo as áreas de soldadura por arco ou cladding. Esta Dissertação aborda o trabalho elaborado, depois de contratualizada com a ABB Rússia a instalação de novas células de fabrico robotizado nesta empresa. Este projeto tem início com o levantamento das necessidades, a verificação do processo existente, e a procura da solução tecnológica que se adapte a essas condições e cumpra os requisitos acordados. São realizadas modelações e simulações off-line em 3D, usando o software RobotStudio da ABB, que permitiram testar cada solução e analisar a sua adequação e viabilidade. Para maior garantia de se obter a qualidade esperada na fusão e deposição do material por processo com arco elétrico revestido a gás, foram realizados testes reais utilizando equipamento robótico em condições baseadas nos testes feitos no ambiente virtual. Por último, são ajustadas as localizações dos postos de trabalho ao layout existente e é feito o balanceamento do tempo de operação manual com o tempo do processo robotizado. Este projeto de Tese termina com a aceitação do cliente para a solução encontrada e para os resultados dos testes reais de ambos os processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a alteração da legislação energética em Portugal, nomeadamente a implementação da legislação de Micro e Minigeração, a produção distribuída cresceu de forma exponencial na rede elétrica nacional, diminuindo por um lado as perdas no transporte e distribuição, e por outro aumentando a complexidade na gestão do trânsito de potência ao Distribuidor. No entanto a motivação desta dissertação prende-se com o facto de que as centrais de produção distribuída, em particular as de tecnologia fotovoltaica, pela sua dimensão, serem instaladas nos pontos de consumo, em paralelo com a instalação elétrica de utilização do cliente e como tal, têm sido verificadas diversas anomalias no funcionamento e exploração das mesmas, por influência da má qualidade de energia resultante das más condições de funcionamento e exploração em que se encontram as instalações de consumo. A presente dissertação pretende apresentar uma descrição das anomalias mais frequentes verificadas nas centrais fotovoltaicas de minigeração com origem na qualidade da energia que transita das instalações elétricas de consumo ligadas ao mesmo ponto de interligação com a rede elétrica nacional. Como base de fundamento, foram demonstradas através de três casos práticos reais, algumas das mais frequentes e prejudiciais anomalias descritas na presente dissertação. Foram escolhidos 3 casos reais com diferentes tipos de instalação de consumo sendo que um deles não apresenta qualquer anomalia de forma a comprovar o bom funcionamento em condições normais de ambas as instalações. Foram encontradas e demonstradas várias soluções paras os diferentes tipos de anomalias, no entanto esta dissertação vai permitir não só a resolução deste tipo de anomalias em centrais fotovoltaicas em exploração e já com prejuízos avultados mas também introduzir em futuras instalações a análise da qualidade da energia nas instalações de consumo em fase preliminar de estudo de implementação de centrais fotovoltaicas de minigeração e de autoconsumo, precavendo futuros problemas de rentabilidade técnico-económica. Este estudo, irá certamente servir de motor de impulsão para a preocupação com a Qualidade da Energia essencialmente dentro das instalações elétricas de consumo sensibilizando os seus gestores energéticos. Poderá ainda impulsionar a reformulação do Regulamento de Qualidade de Serviço para exigências ainda mais apertadas de forma a incorporar algumas das anomalias aqui descritas, sendo por isso um elemento de alerta para todos os “Players” do Sistema Elétrico Nacional tendo como limite a melhoria continua da Segurança e da Qualidade da energia na rede elétrica beneficiando da sensibilização de todos os intervenientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na União Europeia os sectores dos transportes e da indústria são ambos grandes consumidores de energia, mas são os edifícios residenciais e de serviços onde o consumo energético é maior, e em 2005, segundo a EnerBuilding, representavam cerca de 17% dos consumos de energia primária em termos nacionais. A energia gasta com a iluminação, o aquecimento, o arrefecimento e AQS das habitações, locais de trabalho e locais de lazer é superior à consumida pelos sectores dos transportes e da indústria. As habitações representam dois terços do consumo total de energia dos edifícios europeus, o qual aumenta todos os anos com a melhoria da qualidade de vida, traduzindo-se numa maior utilização dos sistemas de climatização. Neste sentido, e de acordo com o decreto-lei que transpõe para a legislação portuguesa a diretiva comunitária relativa ao desempenho energético dos edifícios, todos os Estados da União Europeia devem ter um sistema de certificação energética para informar o cidadão sobre a qualidade térmica dos edifícios, aquando da construção, da venda ou do arrendamento. Assim, entrou em vigor em Portugal, desde 1 de Janeiro de 2009, a obrigatoriedade de apresentação de um certificado de eficiência energética, no ato de compra, venda ou aluguer de edifícios novos e existentes. A certificação energética permite assim aos futuros utilizadores dos edifícios obter informação sobre os potenciais consumos de energia, no caso dos novos edifícios ou no caso de edifícios existentes sujeitos a grandes intervenções de reabilitação, dos seus consumos reais ou aferidos para padrões de utilização típicos, passando o consumo energético a integrar um conjunto dos aspetos importantes para a caracterização de qualquer edifício. Em edifícios de serviços, o certificado energético assegura aos utentes do edifício ou da fração que este reúne condições para garantir a eficiência energética e a adequada qualidade do ar interior. Uma vez que passamos 80% do nosso tempo em edifícios, e que isto se reflete num consumo cada vez mais elevado do sector residencial e dos serviços no consumo total energético do país, este trabalho pretende fazer a comparação dos vários equipamentos de aquecimento, de arrefecimento e de AQS e qual a influência dos mesmos na certificação energética de edifícios, e consequentemente na eficiência dos mesmos, sendo que a eficiência e a certificação energética de um edifício deve ser um aspeto relevante a levar em consideração no momento do planeamento ou da construção, bem como na aquisição de uma nova habitação. Um projeto concebido de modo a tirar proveito das condições climáticas, da orientação solar, dos ventos dominantes e utilizadas técnicas construtivas e os materiais adequados, é possível reduzir os gastos energéticos com a iluminação ou os sistemas de climatização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Segurança Contra Incêndios em Edifícios representa uma parte importante nos projetos de engenharia, uma vez que tem de ser analisada e implementada desde o início da construção. O principal objetivo é oferecer confiança aos utilizadores dos edifícios, aos seus bens e sistemas, sempre de acordo com a lei. Em qualquer tipo de edifício é iminente a capacidade de, por diversos motivos e circunstâncias, se iniciar um incêndio. O que se pretende com toda a regulamentação e matéria sobre a Segurança Contra Incêndios em Edifícios é a aplicação de sistemas de deteção, prevenção e extinção de incêndios, conseguindo, deste modo, reduzir os seus efeitos negativos. Este relatório de estágio apresenta, de um modo geral, a importância da Segurança Contra Incêndios em Edifícios atualmente nas construções, quais as principais regras neste âmbito, bem como a apresentação de todos os equipamentos e sistemas que fazem parte dos sistemas de SCIE. O presente relatório culmina com a vertente prática que consiste na descrição de casos acompanhados durante os meses de estágio, vistorias efetuadas e ensaios de incêndio. Os fenómenos inerentes a um alarme de incêndio serão descritos e comprovados em situações reais de simulação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente documento corresponde à realização de um projeto de estruturas em betão armado e estrutura metálica. A escolha deste tema teve como propósito aplicar os conhecimentos adquiridos ao longo do percurso académico, sobretudo em disciplinas do ramo de estruturas. O trabalho desenvolvido é um Projeto de Estabilidade de Betão Armado e Estrutura Metálica de um Internato Masculino para Padres em Onameva, Cunene – Angola. A elaboração deste projeto decorre da realização de um estágio formal de 8 meses na empresa CALCULUS, Miguel Barros – Engenharia, LDA, com o objetivo principal de reunir os requisitos necessários à admissão na Ordem dos Engenheiros. No contexto laboral de um gabinete de projetos de engenharia civil, foi feita a integração de forma gradual e sustentada das competências adquiridas ao longo da formação académica e vivenciadas situações reais de trabalho profissional. De entre as atividades desenvolvidas no estágio, foi escolhido o projeto de estabilidade acima referido pela oportunidade de realizar todas as etapas do seu desenvolvimento, desde a análise da arquitetura até à elaboração das peças escritas e desenhadas, dando assim resposta às exigências necessárias para a conclusão do Mestrado em Engenharia Civil, no ramo de Estruturas, pelo Instituto Superior de Engenharia do Porto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil – Perfil Construção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.