101 resultados para Calibração de câmaras de placas paralelas
Resumo:
A produção de vinho é uma actividade de elevada importância ao nível económico, ambiental e social. Como tal, a protecção da vinha e/ou da uva através da utilização de pesticidas assume um papel fundamental nesta actividade, permitindo um aumento no rendimento da produção. No entanto, a transferência destes compostos da uva para o vinho é inevitável, ocorrendo, na maioria dos casos, em quantidades reduzidas. Apesar de, geralmente, a quantidade de pesticidas que pode ser transferida para o vinho não apresentar problemas relevantes para a saúde pública, o desenvolvimento de metodologias que permitam garantir um controlo rigoroso da qualidade do vinho é de elevada importância. O controlo deste produto, assim como de qualquer produto alimentar, não deve ser de certa forma virtual, levando a uma desconfiança crescente do consumidor. Ao longo deste trabalho foram desenvolvidos dois métodos para a determinação de pesticidas em diferentes tipos de vinhos, por SPME-GC-MS/MS. O primeiro método desenvolvido visa a determinação de 8 pesticidas organofosforados e o segundo método permite a determinação de 7 pesticidas, 4 organoclorados e 3 dicarboximidas. Foram estudadas quatro matrizes diferentes: vinho branco do Douro, vinho tinto do Douro, vinho branco do Porto e vinho tinto do Porto. As metodologias adoptadas permitiram a obtenção de bons resultados, apesar das condições adoptadas não serem as mais vantajosas para alguns dos compostos estudados. Dada a complexidade das matrizes, a detecção por espectrometria de massa mostrou ser fundamental para a identificação inequívoca de cada um dos pesticidas. Verificaram-se, de um modo geral, bons resultados ao nível da linearidade, para as gamas de concentrações escolhidas, para os dois métodos. Obtiveram-se também bons resultados para os limites de detecção e quantificação, cujos valores se situam abaixo dos limites máximos de resíduos para as uvas, impostos pela regulamentação europeia, para a maioria dos compostos. No caso dos organofosforados, os limites de detecção variam entre 0,05 μg/L e 13,00 μg/L para os pesticidas clorpirifos-metilo e metidatião, respectivamente. Os limites de quantificação variam entre 0,18 μg/L e 43,32 μg/L, também para os pesticidas clorpirifos-metilo e metidatião. No que se refere ao método para os pesticidas organoclorados e dicarboximidas, foram calculados vários limites de detecção para cada composto, em cada matriz estudada, a partir das rectas de calibração diárias, resultando num conjunto de valores com variações significativas entre cada um, para o mesmo pesticida e na mesma matriz. No entanto, apenas os limites de quantificação foram validados, recorrendo-se aos estudos de repetibilidade e precisão intermédia. Obtiveram-se os seguintes limites de quantificação: captana 52,10 μg/L; clortalonil 20,95 μg/L; dicofol 4,37 μg/L; folpete 93,60 μg/L; iprodiona 274,70 μg/L; procimidona 76,04 μg/L e vinclozolina 10,03 μg/L. Os pesticidas metidatião e captana apresentam-se como os compostos mais problemáticos, uma vez que os limites de quantificação obtidos não permitem a garantia do cumprimento dos limites máximos de resíduos regulamentados. Demonstra-se também que, apesar do efeito de matriz ser significativo na determinação de todos os compostos analisados, o mesmo pode ser atenuado, procedendo-se às calibrações nas respectivas matrizes. Observaram-se variações significativas ao nível da resposta do equipamento ao longo do tempo, quer pela alteração das condições operatórias, quer pela decomposição de alguns compostos ao longo do tempo. Este efeito, evidenciado nos estudos das precisões intermédias e repetibilidades, levou à adopção de um método de validação diferente para a determinação de pesticidas organoclorados e dicarboximidas, recorrendo-se então a calibrações diárias e sequências de trabalho mais pequenas.
Resumo:
No presente trabalho pretendeu-se estudar o comportamento da ciprofloxacina por técnicas voltamétricas e desenvolver novos sensores para monitorizar a ciprofloxacina em águas residuais. A investigação realizada contemplou essencialmente, os seguintes aspectos: estudo da influência do pH no comportamento voltamétrico da ciprofloxacina e comparação entre o eléctrodo de carbono vítreo e alguns eléctrodos modificados. O estudo foi efectuado em voltametria cíclica a diferentes velocidades de varrimento e também em voltametria de impulso diferencial. O estudo mostrou que o eléctrodo modificado com nanotubos de carbono permitiu a quantificação de níveis mais baixos de ciprofloxacina. O novo sensor desenvolvido foi utilizado em águas do rio Douro e rio Leça com o objectivo de monitorizar a concentração de ciprofloxacina. Traçaram-se curvas de calibração directa e por adição padrão de quantidades crescentes de ciprofloxacina. Os estudos efectuados com as águas do rio Douro e rio Leça foram recolhidos próximos da foz do rio estas amostras deveriam ser recolhidas em vários pontos do rio para se poder fazer uma comparação de resultados. Os estudos de recuperação permitiram verificar que a percentagem de recuperação para o rio Douro se situava nos 90% e as do rio Leça nos 75%, pelo método da calibração directa. Usando o método da adição padrão a recuperações foram de 99% para o rio Douro e 90% para o rio Leça. Os estudos em curso permitem concluir que este sensor poderá ser aplicado na monitorização da ciprofloxacina em amostras ambientais.
Resumo:
A presente dissertação descreve o desenvolvimento e a caracterização de sensores potenciométricos com base em polímeros de impressão molecular e de sensores ópticos com base em membranas de poli(cloreto de vinilo), PVC, para a determinação de cobre em vinhos verdes. Os sensores potenciométricos foram preparados a partir de diferentes solventes (metanol e clorofórmio), tendo o seu crescimento decorrido na presença ou ausência da molécula molde (cobre). Os sistemas sensores selectivos ao cobre continham partículas de polímeros com ou sem impressão molecular como material electroactivo, dispersas em solvente plastificante, PVC e, em alguns casos, aditivo aniónico. A avaliação dos vários sistemas baseou-se na comparação das características operacionais dos diversos eléctrodos onde foram aplicados. Estas características foram obtidas a partir de curvas de calibração, cujos declives e limites de detecção variaram entre -39,9 – 37,0 mV decada-1 e 4,2 – 29,1 μg mL-1, respectivamente. Os sensores não são independentes do pH uma vez que o complexo formado entre o cobre e a difenilcarbazida é favorecido por valores de pH próximos de 5. Assim, obtiveram-se melhores resultados usando água desionizada ou solução tampão de HEPES revelando-se um método rápido e relativamente eficaz nestas condições. Os sensores ópticos basearam-se na reacção colorimétrica entre o cobre e um complexante. Os reagentes complexantes escolhidos foram a neocuproína, a difenilcarbazida e o dietilditiocarbamato de sódio. Avaliou-se o efeito de vários parâmetros experimentais na resposta destes sensores, tais como o pH (avaliado para os valores 3,00 e 5,00), a concentração de cobre (que variou entre 0,06 e 317,7 mg L- 1) e as próprias características da membrana. Os melhores resultados foram obtidos a pH 3, numa gama de concentrações de 0,06 e 31,8 mg L-1 usando a difenilcarbazida como reagente complexante. A aplicação destes sensores a vinhos requer ainda estudos adicionais, especialmente no que diz respeito à necessidade de implementar algum procedimento de pré-tratamento de amostra.
Resumo:
Este trabalho insere-se no domínio da calibração energética dos equipamentos SPT, dando seguimento ao disposto na norma EN ISO 22476-3, de aplicação obrigatória em Portugal. Para tal foi utilizada uma vara instrumentada, cuja instrumentação consiste em strain-gauges e acelerómetros piezoeléctricos. Esta instrumentação encontra-se fixa a um trecho de vara com comprimento de 60 cm e para a aquisição dos dados foi utilizado o sistema SPT Analyzer® comercializado pela firma PDI. O sistema permite registar os dados provenientes da instrumentação: sinais de um par de strain-gauges, transformados em registos de força (F1 e F2) e sinais de um par de acelerómetros, convertidos em registos de velocidade (V1 e V2) ao longo do tempo. O equipamento permite a avaliação, em tempo real, da qualidade dos registos e da energia máxima transmitida à vara em cada golpe e o conhecimento do deslocamento vertical do trem de varas ocorrido em cada golpe do martelo. Por outro lado, baseando-se no tema acima referido, pretende-se ainda desenvolver esforços no sentido de melhorar o novo método interpretativo dos resultados dos ensaios SPT e sua aplicação ao dimensionamento de estacas, dado que a previsão da capacidade de carga de estacas constitui um dos desafios da engenharia de fundações por requerer a estimativa de propriedades do solo, alterações pela execução da fundação e conhecimento do mecanismo de interacção solo-estaca. Este novo procedimento baseia-se nos princípios da dinâmica, rompendo com as metodologias até aqui consagradas, de natureza essencialmente empírica. A nova forma de interpretar os ensaios SPT, consubstanciada nos princípios de conservação de energia na cravação do amostrador SPT, irá permitir converter analiticamente o valor Nspt numa força dinâmica de reacção à penetração. A decomposição desta força dinâmica permite efectuar análises comparativas entre as resistências unitárias mobilizadas no amostrador SPT (modelo) e as mobilizadas na estaca (protótipo).
Resumo:
Os hospitais necessitam de desenvolver programas de gestão de equipamentos médicos, onde contenha informação pertinente e uma metodologia de planeamento eficaz, para a aquisição do equipamento médico novo, assim como otimizar o controlo metrológico destes equipamentos. Para tal foi fornecida informação sobre os aspetos mais relevantes a ter em conta na compra do equipamento médico, como as especificações e funcionalidades necessárias, normas a que o equipamento deve obedecer, garantias, manutenção e calibração/verificação quando aplicável. A escolha dos equipamentos médicos incidiu sobre os esfigmomanómetros e os monitores de sinais vitais. Estudou-se o funcionamento destes equipamentos e prosseguiu-se depois para a realização de entrevistas aos seus utilizadores, com o intuito de perceber a satisfação, os critérios e as necessidades relativas aos equipamentos existentes na ULSM. Em seguida foram realizadas as fichas de normalização onde se definiram as características físicas, fisiológicas e tecnológicas associadas a ambos os tipos de dispositivos médicos. Posteriormente estudaram-se as normas com as quais os equipamentos devem estar em conformidade para garantir o bom funcionamento. Por fim pesquisou-se quais os requisitos metrológicos, técnicos e os procedimentos de verificação a que os equipamentos devem obedecer. Este documento irá servir como suporte para a aquisição e controlo dos equipamentos médicos aqui estudados, melhorando a sua gestão, manutenção e controlo metrológico.
Resumo:
Esta dissertação aborda o problema de detecção e desvio de obstáculos "SAA- Sense And Avoid" em movimento para veículos aéreos. Em particular apresenta contribuições tendo em vista a obtenção de soluções para permitir a utilização de aeronaves não tripuladas em espaço aéreo não segregado e para aplicações civis. Estas contribuições caracterizam-se por: uma análise do problema de SAA em \UAV's - Unmmaned Aerial Vehicles\ civis; a definição do conceito e metodologia para o projecto deste tipo de sistemas; uma proposta de \ben- chmarking\ para o sistema SAA caracterizando um conjunto de "datasets\ adequados para a validação de métodos de detecção; respectiva validação experimental do processo e obtenção de "datasets"; a análise do estado da arte para a detecção de \Dim point features\ ; o projecto de uma arquitectura para uma solução de SAA incorporando a integração de compensação de \ego motion" e respectiva validação para um "dataset" recolhido. Tendo em vista a análise comparativa de diferentes métodos bem como a validação de soluções foi proposta a recolha de um conjunto de \datasets" de informação sensorial e de navegação. Para os mesmos foram definidos um conjunto de experiências e cenários experimentais. Foi projectado e implementado um setup experimental para a recolha dos \datasets" e realizadas experiências de recolha recorrendo a aeronaves tripuladas. O setup desenvolvido incorpora um sistema inercial de alta precisão, duas câmaras digitais sincronizadas (possibilitando análise de informa formação stereo) e um receptor GPS. As aeronaves alvo transportam um receptor GPS com logger incorporado permitindo a correlação espacial dos resultados de detecção. Com este sistema foram recolhidos dados referentes a cenários de aproximação com diferentes trajectórias e condições ambientais bem como incorporando movimento do dispositivo detector. O método proposto foi validado para os datasets recolhidos tendo-se verificado, numa análise preliminar, a detecção do obstáculo (avião ultraleve) em todas as frames para uma distância inferior a 3 km com taxas de sucesso na ordem dos 95% para distâncias entre os 3 e os 4 km. Os resultados apresentados permitem validar a arquitectura proposta para a solução do problema de SAA em veículos aéreos autónomos e abrem perspectivas muito promissoras para desenvolvimento futuro com forte impacto técnico-científico bem como sócio-economico. A incorporação de informa formação de \ego motion" permite fornecer um forte incremento em termos de desempenho.
Resumo:
Esta dissertação propõe o desenvolvimento de um sistema capaz de adquirir e monitorizar num computador o sinal do electrocardiograma (ECG) e de detectar o pico R do complexo QRS do referido sinal. Numa primeira fase foi efectuado um estudo do sistema cardiovascular, de forma a compreender a actividade eléctrica do coração e dos diversos sinais que constituem o ECG. Foi efectuado um estudo sobre o sinal ECG, tendo sido estudadas as suas características, bem como técnicas e componentes básicos de aquisição e condicionamento do sinal, sendo também analisados diversos sistemas que efectuam a aquisição de ECG. Numa segunda fase foram estudadas as Field Programmable Analog Array (FPAA), analisando o estado da arte desta tecnologia, bem como os dispositivos disponíveis comercialmente. Após esta análise foram seleccionados os dispositivos FPAA, bem como o restante hardware e software necessários para a realização desta Tese. Foi desenvolvido um sistema de condicionamento de sinal ECG, e de detecção de pico R do complexo QRS, apenas com componentes analógicos discretos tendo sido analisados os resultados obtidos antes de se avançar para a fase seguinte. Após a realização do sistema com componentes discretos, foi implementado um sistema em que grande parte do condicionamento do sinal ECG é efectuado por duas placas de desenvolvimento FPAA, de forma a diminuir a quantidade de componentes e a obter um sinal com melhor resolução. Os resultados obtidos foram analisados e comparados com o sistema desenvolvido. Para monitorizar o sinal ECG e o pico R num computador, foi desenvolvido um sistema em que os sinais são convertidos pelo conversor A/D de um microcontrolador, e enviados por comunicação série para um computador, sendo os valores obtidos visualizados numa aplicação em ambiente MATLAB.
Resumo:
Esta dissertação apresenta um estudo da capacidade do processo inserido uma empresa de panificação. Antes de iniciar o estudo propriamente dito, foi realizada uma calibração à balança na qual este estudo seria realizado. Os índices de capacidade do processo têm como principal finalidade verificar se a média e a variabilidade do processo estão em concordância com o alvo e os limites de especificação. Esta verificação permite o ajustamento do processo de maneira a reduzir a produção de produtos defeituosos. Neste trabalho foram utilizados os índices de capacidade considerando que as condições são ideais, isto é, quando existe normalidade nas amostras. Quando as condições não são ideais, como foi verificado, foram utilizadas técnicas para o cálculo dos índices de capacidade para este tipo de situações. A aplicação da metodologia de análise da capacidade do processo foi realizada com sucesso com recurso a amostras retiradas numa balança calibrada para o efeito.
Resumo:
A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências de vídeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.
Oxidative Leaching of metals from electronic waste with solutions based on quaternary ammonium salts
Resumo:
The treatment of electric and electronic waste (WEEE) is a problem which receives ever more attention. An inadequate treatment results in harmful products ending up in the environment. This project intends to investigate the possibilities of an alternative route for recycling of metals from printed circuit boards (PCBs) obtained from rejected computers. The process is based on aqueous solutions composed of an etchant, either 0.2 M CuCl2.2H2O or 0.2 M FeCl3.6H2O, and a quaternary ammonium salt (quat) such as choline chloride or chlormequat. These solutions are reminiscent of deep eutectic solvents (DES) based on quats. DES are quite similar to ionic liquids (ILs) and are used as well as alternative solvents with a great diversity of physical properties, making them attractive for replacement of hazardous, volatile solvents (e.g. VOCs). A remarkable difference between genuine DES and ILs with the solutions used in this project is the addition of rather large quantities of water. It is shown the presence of water has a lot of advantages on the leaching of metals, while the properties typical for DES still remain. The oxidizing capacities of Cu(II) stem from the existence of a stable Cu(I) component in quat based DES and thus the leaching stems from the activity of the Cu(II)/Cu(I) redox couple. The advantage of Fe(III) in combination with DES is the fact that the Fe(III)/Fe(II) redox couple becomes reversible, which is not true in pure water. This opens perspectives for regeneration of the etching solution. In this project the leaching of copper was studied as a function of gradual increasing water content from 0 - 100w% with the same concentration of copper chloride or iron(III) chloride at room temperature and 80ºC. The solutions were also tested on real PCBs. At room temperature a maximum leaching effect for copper was obtained with 30w% choline chloride with 0.2 M CuCl2.2H2O. The leaching effect is still stronger at 80°C, b ut of course these solutions are more energy consuming. For aluminium, tin, zinc and lead, the leaching was faster at 80ºC. Iron and nickel dissolved easily at room temperature. The solutions were not able to dissolve gold, silver, rhodium and platinum.
Resumo:
Foram utilizados como elemento principal de estudo, os efluentes líquidos dos processos industriais da ENDUTEX, Tinturaria e Acabamento de Malhas, S. A. localizada no município de Caldas de Vizela, distrito de Braga. O estudo foi realizado na empresa devido ao interesse da mesma em poder reaproveitar o calor libertado nos efluentes para aquecimento de parte da água captada no rio de Vizela. O objectivo do trabalho consiste no dimensionamento de um permutador de calor que permita satisfazer o interesse da empresa, assim como, um estudo económico relativo aos custos envolventes. Com o intuito de concretizar os objectivos propostos foram realizadas visitas semanais à empresa para se proceder ao levantamento de dados e para a realização de amostragens do efluente para posterior caracterização. Depois de efectuado o dimensionamento do permutador de placas para diferentes caudais e temperaturas dos fluidos, frio (água do rio) e quente (efluentes), concluiu-se que as condições mais rentáveis correspondiam a um caudal de fluido frio de 17 m3/h em que a temperatura de entrada e de saída no permutador seria de 14 ºC e 48 ºC, respectivamente. O caudal de fluido quente seria de 20 m3/h, sendo a temperatura de entrada e de saída no permutador de 62 ºC e 33,1 ºC, respectivamente. Como resultado do dimensionamento obteve-se um permutador de placas com 167 placas em que o coeficiente global de transferência de calor (U) é de 726,9 W/m2ºC, a área projectada de 55,7 m2 e a queda de pressão de 0,904 KPa. Foi consultada a empresa ARSOPI-THERMAL para verificação das características dos permutadores existentes no mercado. No entanto, para as mesmas condições foi sugerido um permutador com 31 placas em que o coeficiente global de transferência de calor (U) é de 6267 W/m2ºC, a área projectada de 7,39 m2 e a queda de pressão de 76 KPa. A diferença verificada nos resultados apresentados pode ter origem na utilização de diferentes expressões no cálculo do coeficiente pelicular de transferência de calor (h) e pelo facto da ARSOPI desprezar o factor de sujamento no seu dimensionamento Na análise económica do projecto é de referir que para o arranque do projecto foi feito o levantamento das necessidades de investimento, situando-se este num valor total de 9640€, sendo o investimento financiado apenas por capitais próprios. O prazo de recuperação do investimento (Pay Back Period) é de cerca de 2 meses.
Resumo:
Neste trabalho estudou-se um compósito de gesso FGD reforçado com fibras vegetais. As fibras utilizadas neste estudo são provenientes de bambu da espécie Phyllostachys edulis e foram trituradas até se obter uma granulometria apropriada à composição de uma pasta de gesso que permitisse a execução de placas de gesso laminado. As placas produzidas foram ensaiadas à flexão e posteriormente submetidas à análise de humidade para aferir a percentagem de água de cristalização nas amostras. Foram ainda produzidos provetes cúbicos com 7cm de aresta para permitira a execução de ensaio à compressão. Foram produzidos dois tipos de pastas, uma sem a adição de partículas de bambu (controlo) e outra com adição de 15% de partículas de bambu.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.
Resumo:
Orientador: Doutor, José Domingos Silva Fernandes