29 resultados para Garantias processuais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir da década de noventa do século passado, começaram a surgir no mercado ferramentas de cálculo com o objetivo de agilizar a conceção do projeto de engenharia da construção. Até ao final da década de setenta os computadores existentes eram enormes, apenas entidades de grande poder económico os podiam adquirir. Na década de oitenta surgiu no mercado o PC, Personal Computer, estas pequenas máquinas começaram a ser adquiridas pela generalidade das empresas e em Portugal no final desta década era possível encontrar indivíduos que já possuíam o seu PC. Na década de noventa, a saída de recém-formados das instituições de ensino superior, fomentou no mercado o aparecimento de empresas de informática dedicadas à conceção de software de acordo com as necessidades do próprio mercado, daí resultando software comercial à medida e software comercial de prateleira (COTS, Commercial Off-The-Shelf)). O software comercial, ao ser utilizado por um grande número de pessoas, atingindo facilmente, no caso do COTS, os milhares, tem condições para evoluir de acordo com as exigências sistemáticas do próprio mercado, atingindo elevados patamares no cumprimento de requisitos de qualidade, nomeadamente no que concerne à funcionalidade, fiabilidade, usabilidade, manutenibilidade, eficiência, portabilidade e qualidade na utilização. A utilização de software comercial na área do projeto de engenharia da construção é hoje em dia uma prática absolutamente generalizada. A seleção do software pode tornar-se um processo complexo especialmente naquelas áreas em que existe grande oferta. A utilização de critérios de avaliação bem definidos poderá agilizar o processo e dar maiores garantias no momento da decisão final. Neste documento apresenta-se uma proposta de metodologia para avaliação e comparação de softwares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os biocombustíveis são combustíveis com origem em matérias-primas naturais e renováveis, como óleos vegetais, gorduras animais, óleos e gorduras residuais entre outros, utilizados como substitutos de combustíveis minerais, como o gasóleo ou gasolina. Esta alternativa aos combustíveis de origem fóssil, tem-se vindo a revelar cada vez mais atrativa, sobretudo devido aos seus benefícios ambientais, destacando-se entre ele s o facto de serem biodegradáveis, não tóxicos e emitirem menos gases aquando da sua combustão, não contribuindo deste modo para o aumento do efeito de estufa na atmosfera. Na execução do presente trabalho, assume-se como finalidade o desenvolvimento de procedimentos laboratoriais sistemático de modo, com o intuito de elaborar um controlo de qualidade para a produção do biodiesel que permita a implementação de novas medidas processuais melhorando a produção de biodiesel. Este trabalho é resultado do estágio no Ecoparque Braval Valorização e Tratamento de Resíduos Sólidos, S.A. Com a avaliação sistemática e contínua, tanto da matéria-prima usada na produção do biodiesel, como do produto final em si, através de procedimentos laboratoriais específicos para o efeito, visa-se que em distintas fases do processo de produção do biodiesel seja compreendido o que ocorre de forma efetiva, e assim se assumam medidas preventivas e corretivas com o intuito de melhorar a qualidade do produto final. Na elaboração deste trabalho foram também reunidos esforços no sentido de controlar as especificações do óleo à entrada das instalações e iniciar o controlo de qualidade do produto final através de análises comparativas elaboradas no laboratório da Unidade de Produção de Biodiesel do Ecoparque Brava! - Valorização e Tratamento de Resíduos Sólidos, S.A. Outra abordagem do trabalho em questão, incide no estudo do efeito da variação das condições operatórias, nomeadamente a razão molar metanol/óleo , quantidade de catalizador na produção de biodiesel, nomeadamente, na quantidade de glicerina obtida como subproduto da reação e na facilidade de separação de fases. Neste sentido, o trabalho proposto pretende controlar a qualidade da matéria-prima usada, a qualidade do produto final e apresentar os aspetos-chave que deve m ser considerados para urna melhor gestão do s recursos de produção do biocombustível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Solicitadoria

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, efetuado na Estação de Tratamento de Águas Residuais do Freixo (ETAR do Freixo), decorreu durante um período de nove meses, (entre Dezembro de 2012 e Agosto de 2013), e teve como principais objetivos: - a observação microscópica e respetiva identificação dos organismos presentes nas lamas ativadas dos reatores biológicos da ETAR (incidindo nos protozoários, metazoários e bactérias filamentosas); - estabelecer a relação entre os organismos identificados/quantidade respetiva e a sedimentabilidade das lamas ativadas e sua influência no processo de depuração; - avaliar a variação das espécies identificadas com as alterações processuais. Para o efeito, a metodologia utilizada foi: - a colheita diária de amostras em vários pontos da ETAR; - a determinação dos parâmetros operacionais e caracterização das amostras recolhidas, tendo sido efetuadas 6039 análises físico-químicas, incluindo ao afluente à ETAR, ao afluente e ao conteúdo dos dois reatores biológicos, à corrente de recirculação de lamas e ao efluente; - a visualização diária microscópica ótica sem contraste de fase dos microrganismos presentes nos reatores biológicos; - a visualização microscópica ótica com contraste de fase da microfauna presente nos reatores biológicos, sendo efetuadas 16 identificações e quantificações dos protozoários presentes nas lamas ativadas dos dois reatores e 10 identificações e quantificações das bactérias filamentosas presentes nos dois reatores biológicos. O início do estudo ocorreu num período em que se começou a verificar um aumento excessivo de espumas nos decantadores secundários, resultando numa fraca sedimentabilidade das lamas e numa menor qualidade do efluente final. Na tentativa de reduzir a excessiva ascensão do manto de lamas que se verificou, foram efectuadas alterações operacionais, consistindo: - na alteração da razão de recirculação da decantação secundária para os reatores biológicos; - na introdução de um composto altamente concentrado em matéria orgânica na corrente de recirculação de lamas; - na alteração da extração de lamas biológicas. Verificou-se que as alterações processuais efetuadas foram muito eficazes na diminuição do manto de lamas da decantação secundária, bem como muito eficazes na qualidade do efluente final. Durante os meses de Fevereiro a Agosto fez-se o acompanhamento diário de todas as condições de operação de modo a manter e validar o procedimento de operação, o qual se considerou muito eficaz em termos de obtenção de uma água tratada de excelente qualidade. Durante o estudo efetuado, verificou-se que a população microbiológica existente nos dois reatores biológicos se manteve praticamente inalterada durante todo o período, sendo os móveis de fundo e os sésseis os grupos dominantes. Esta dominância traduziu-se na elevada qualidade do efluente final que se observou a partir do mês de Fevereiro, tendo dificultado o estudo de novas condições de operação, mas facilitando a validação do procedimento adotado. No que se refere às bactérias filamentosas, verificou-se que são diversas as espécies presentes nos reatores biológicos e que existem em grande abundância, sendo que o Tipo 0092 é claramente dominante. O excessivo crescimento deste tipo de bactérias mostrou ser o maior problema a nível microbiológico no processo de tratamento da instalação, tornando-se crítico no período de inverno em que a temperatura e os picos de pluviosidade se mostraram condições favoráveis ao seu desenvolvimento. Para além da temperatura outros fatores mostraram-se responsáveis pelo seu crescimento tais como a razão Alimento/Microrganismo (A/M), a idade das lamas, a carga mássica afluente e o teor de oxigénio dissolvido nos reatores biológicos. Pode-se concluir que apesar de não se trabalhar com os valores teóricos dos parâmetros microbiológicos e operacionais considerados ideais, a ETAR do Freixo, possui um tratamento bastante eficaz na remoção da carga orgânica, na remoção de nutrientes e na remoção de sólidos suspensos totais, apesar da não existência de uma etapa de afinação final como a filtração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente a energia é considerada um vetor estratégico nas diversas organizações. Assim sendo, a gestão e a utilização racional da energia são consideradas instrumentos fundamentais para a redução dos consumos associados aos processos de produção do sector industrial. As ações de gestão energética não deverão ficar pela fase do projeto das instalações e dos meios de produção, mas sim acompanhar a atividade da Empresa. A gestão da energia deve ser sustentada com base na realização regular de diagnósticos energéticos às instalações consumidoras e concretizada através de planos de atuação e de investimento que apresentem como principal objetivo a promoção da eficiência energética, conduzindo assim à redução dos respetivos consumos e, consequentemente, à redução da fatura energética. Neste contexto, a utilização de ferramentas de apoio à gestão de energia promovem um consumo energético mais racional, ou seja, promovem a eficiência energética e é neste sentido que se insere este trabalho. O presente trabalho foi desenvolvido na Empresa RAR Açúcar e apresentou como principais objetivos: a reformulação do Sistema de Gestão de Consumos de Energia da Empresa, a criação de um modelo quantitativo que permitisse ao Gestor de Energia prever os consumos anuais de água, fuelóleo e eletricidade da Refinaria e a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado. A reformulação do respetivo Sistema de Gestão de Consumos resultou de um conjunto de etapas. Numa primeira fase foi necessário efetuar uma caraterização e uma análise do atual Sistema de Gestão de Consumos da Empresa, sistema composto por um conjunto de sete ficheiros de cálculo do programa Microsoft Excel©. Terminada a análise, selecionada a informação pertinente e propostas todas as melhorias a introduzir nos ficheiros, procedeu-se à reformulação do respetivo SGE, reduzindo-se o conjunto de ficheiros de cálculo para apenas dois ficheiros, um onde serão efetuados e visualizados todos os registos e outro onde serão realizados os cálculos necessários para o controlo energético da Empresa. O novo Sistema de Gestão de Consumos de Energia será implementado no início do ano de 2015. Relativamente às alterações propostas para as folhas de registos manuais, estas já foram implementadas pela Empresa. Esta aplicação prática mostrou-se bastante eficiente uma vez que permitiu grandes melhorias processuais nomeadamente, menores tempos de preenchimento das mesmas e um encurtamento das rotas efetuadas diariamente pelos operadores. Através do levantamento efetuado aos diversos contadores foi possível identificar todas as áreas onde será necessário a sua instalação e a substituição de todos os contadores avariados, permitindo deste modo uma contabilização mais precisa de todos os consumos da Empresa. Com esta reestruturação o Sistema de Gestão de Consumos tornou-se mais dinâmico, mais claro e, principalmente, mais eficiente. Para a criação do modelo de previsão de consumos da Empresa foi necessário efetuar-se um levantamento dos consumos históricos de água, eletricidade, fuelóleo e produção de açúcar de dois anos. Após este levantamento determinaram-se os consumos específicos de água, fuelóleo e eletricidade diários (para cada semana dos dois anos) e procedeu-se à caracterização destes consumos por tipo de dia. Efetuada a caracterização definiu-se para cada tipo de dia um consumo específico médio com base nos dois anos. O modelo de previsão de consumos foi criado com base nos consumos específicos médios dos dois anos correspondentes a cada tipo de dia. Procedeu-se por fim à verificação do modelo, comparando-se os consumos obtidos através do modelo (consumos previstos) com os consumos reais de cada ano. Para o ano de 2012 o modelo apresenta um desvio de 6% na previsão da água, 12% na previsão da eletricidade e de 6% na previsão do fuelóleo. Em relação ao ano de 2013, o modelo apresenta um erro de 1% para a previsão dos consumos de água, 8% para o fuelóleo e de 1% para a eletricidade. Este modelo permitirá efetuar contratos de aquisição de energia elétrica com maior rigor o que conduzirá a vantagens na sua negociação e consequentemente numa redução dos custos resultantes da aquisição da mesma. Permitirá também uma adequação dos fluxos de tesouraria à necessidade reais da Empresa, resultante de um modelo de previsão mais rigoroso e que se traduz numa mais-valia financeira para a mesma. Foi também proposto a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado em função da produção prevista para esse mesmo ano. O modelo apresenta um desvio de 24% na previsão da água, 0% na previsão da eletricidade e de 28% na previsão do fuelóleo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese de mestrado teve como objetivo o estudo e análise do funcionamento das centrais de cogeração e térmica da fábrica da Unicer em Leça do Balio, com o intuito de melhorar a sua eficiência, propondo alterações processuais. O trabalho realizado consistiu no reconhecimento das instalações, seguido da formulação e resolução dos balanços de energia globais. Com o acompanhamento diário do funcionamento foi possível propor melhorias sem custos que se revelaram muito benéficas, registando-se um aumento nas recuperações térmicas e por consequência no Rendimento Elétrico Equivalente (R.E.E.), na eficiência da instalação da cogeração e da central térmica. Na cogeração registou-se um aumento de 36,2% na potência recuperada em água quente, aproximadamente 600 kW, sendo já superior à prevista pelo projeto. Na caldeira recuperativa registou-se um ligeiro aumento de 4,0% na potência recuperada. Deste modo o rendimento térmico da central aumentou 6,4%, atingindo os 40,8% e superando os 40,4% projetados. O rendimento global final foi de 83,1% o que representa um aumento de 6,3%. O R.E.E. em Maio de 2014 foi de 76,3%, superior ao valor em Junho de 2013 em 8,7%. Tendo como referência o valor alvo de 70,5% para o R.E.E. apontado no início do estágio, nos últimos 8 meses o seu valor tem sido sempre superior e em crescimento. Existe ainda a possibilidade de aproveitar a energia térmica de baixa temperatura que está a ser dissipada numa torre de arrefecimento, no mínimo 40 kW, num investimento com um período de retorno de investimento máximo de 8,1 meses. Na central térmica registou-se um aumento do rendimento para a mesma quantidade de energia produzida na central, pois esta é a principal variável do processo. Em 2014 a produção de energia apresentou um valor inferior a 2013, 6,9%, e a eficiência registou um acréscimo de 2,0%. A incorporação de biogás na alimentação de combustível à caldeira bifuel não pareceu comprometer significativamente a eficiência da central térmica, pelo que a sua utilização é benéfica. Com o aumento das recuperações térmicas na central de cogeração foram estimadas poupanças de gás natural equivalentes a 3,3 GWh, o que significa 120.680€ economizados nos últimos 11 meses do trabalho. É esperado uma poupança de 18.000€ mensais com a melhoria do funcionamento obtida nas duas centrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para garantir que um equipamento opere com segurança e fiabilidade durante o seu ciclo de vida, desde a sua instalação ao desmantelamento, devem ser realizadas inspeções e/ou monitorizações que, dependendo dos dados recolhidos, podem implicar avaliações Fitness- For-Service (FFS) que definirão a necessidade de reparação ou alteração do equipamento ou das condições processuais. A combinação de inspeção ou monitorização com os melhores procedimentos e técnicas de avaliação atuais fazem sobressair insuficiências dos procedimentos mais antigos. Usando métodos mais avançados de avaliação, validados e suportados através de uma vasta experiência de campo, pode-se agora avaliar defeitos nos ativos (equipamentos) e determinar a adequação ao serviço com uma análise FFS. As análises FFS tornaram-se cada vez mais aceites em toda a indústria ao longo dos últimos anos. A norma API 579 - 1/ASME FFS-1: 2007 fornece diretrizes para avaliar os tipos de danos que afetam os equipamentos processuais e a norma API RP 571: 2011 descreve os mecanismos de degradação que afetam os equipamentos nas petroquímicas e refinarias, que incluem os danos por corrosão, desalinhamentos, deformações plásticas, laminações, fissuras, entre outros. Este trabalho consiste na análise de Integridade Estrutural de uma Flare Industrial que surgiu da necessidade real de análise do equipamento no âmbito da atividade profissional do candidato. O estudo realizado a nível profissional é de grande abrangência, incluindo a inspeção do equipamento, identificação da falha ou dano, recolha e registo de dados, definição de estratégia de atuação e seleção de técnicas de avaliação da condição para posterior alteração, reparação ou desmantelamento. Na presente dissertação de mestrado em Engenharia Mecânica, Ramo Construções Mecânicas, pretende-se efetuar o estudo aprofundado de uma das etapas de projeto, nomeadamente estudar a causa, avaliar a falha e implicações estruturais ou processuais devido à degradação interior do riser de uma flare, com base numa análise FFS, assumindo a operabilidade em segurança e garantindo resolutas condições de funcionamento. A presente análise FFS tem como finalidade validar ou não a integridade atual (avaliação técnica quantitativa) de modo a conhecer se o item em questão é seguro e confiável para continuar a operar em condições específicas durante um período de tempo determinado, tendo em consideração as condições verificadas no ato de inspeção e especificações de projeto, segundo os itens de verificação de segurança estabelecidos na norma EN 1990:2002/A1:2005/AC:2010 e com base na norma API 579-1/ASME FFS-1: 2007. No âmbito do presente trabalho foram realizadas as seguintes tarefas: - Identificar e analisar os mecanismos de degradação com base na norma API RP 571: 2011, face às condições processuais e geométricas que o equipamento em análise está sujeito de modo a perceber a evolução da degradação estrutural e quais as implicações na sua longevidade. - Avaliar e propor soluções de reparação e ou alterações processuais e ou geométricas do equipamento em análise de modo a permitir a continuidade em funcionamento sem afetar as condições de segurança e por conseguinte minimizar ou evitar o elevado custo económico associado a um novo equipamento e tempo de paragem processual. - Assumir limites estruturais face às condições processuais e ações externas ou adjacentes. - Garantir a segurança e qualidade da vida humana ou meio que o rodeia, do equipamento, das instalações, das infraestruturas envolventes e evitar o colapso económico, quer por motivos processuais, quer indeminizações ou agravamento do prémio do seguro. Verificou-se que os resultados serão a base para as alterações inerentes, tais como reforço estrutural, alteração da geometria do defletor, ajuste no tensionamento dos cabos e controlo da espessura mínima, de modo a alargar o período de vida útil da flare com segurança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos tempos atuais as empresas que atuam no ramo dos sistemas elétricos de energias enfrentam desafios cada vez mais exigentes, dado o enquadramento normativo a que estão sujeitas por parte da entidade reguladora dos serviços energéticos. No caso do Arquipélago dos Açores, o normativo relativo ao regulamento da qualidade de serviço entrou em vigor em 2006, trazendo à EDA,S.A. (Eletricidade dos Açores), entidade responsável pelo transporte e distribuição de energia na região, novas exigências para adequados níveis de eficiência e de garantias aos clientes, no que respeita à qualidade de serviço que lhes é prestado. No âmbito deste trabalho, é efetuado o estudo do trânsito de potência sobre a rede distribuição 15 kV da ilha Graciosa. Para tal, é realizada a modelização da rede no software de rede elétricas porwerworld 8.0. e são idealizados um conjunto de cenários de exploração da rede, que visam simular situações reais que ocorrem na exploração diária da rede de distribuição da ilha. Nas simulações a efetuar consideram-se dois cenários com perfil de carga distintos, um referente à ponta máxima, e outro referente ao vazio mínimo, verificados no ano de 2014. Quanto ao modo de exploração da rede nos cenários a simular, é contemplado o modo de exploração normalmente operado pela empresa gestora, bem como diversas reconfigurações sobre o modo de exploração normalmente operado, realizadas através da abertura e fecho dos aparelhos de corte constituintes da rede. Em todos os cenários simulados, é realizado um estudo relativamente à potência de perdas do sistema, ao perfil da tensão nos diversos postos de transformação, e ao congestionamento de energia verificado nas linhas de distribuição da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Temos vindo a assistir nos últimos anos a uma evolução no que respeita à avaliação do risco de crédito. As constantes alterações de regulamentação bancária, que resultam dos Acordos de Basileia, têm vindo a impor novas normas que condicionam a quantidade e a qualidade do risco de crédito que as Instituições de Crédito podem assumir nos seus balanços. É de grande importância as Instituições de Crédito avaliarem o risco de crédito, as garantias e o custo de capital, pois têm um impacto direto na sua gestão nomeadamente quanto à afetação de recursos e proteção contra perdas. Desta forma, pretende-se com o presente trabalho elaborar e estruturar um modelo de rating interno através de técnicas estatísticas, assim como identificar as variáveis estatisticamente relevantes no modelo considerado. Foi delineada uma metodologia de investigação mista, considerando na primeira parte do trabalho uma pesquisa qualitativa e na segunda parte uma abordagem quantitativa. Através da análise documental, fez-se uma abordagem dos conceitos teóricos e da regulamentação que serve de base ao presente trabalho. No estudo de caso, o modelo de rating interno foi desenvolvido utilizando a técnica estatística designada de regressão linear múltipla. A amostra considerada foi obtida através da base de dados SABI e é constituída por cem empresas solventes, situadas na zona de Paredes, num horizonte temporal de 2011-2013. A nossa análise baseou-se em três cenários, correspondendo cada cenário aos dados de cada ano (2011, 2012 e 2013). Para validar os pressupostos do modelo foram efetuados testes estatísticos de Durbin Watson e o teste de significância - F (ANOVA). Por fim, para obtermos a classificação de rating de cada variável foi aplicada a técnica dos percentis. Pela análise dos três cenários considerados, verificou-se que o cenário dois foi o que obteve maior coeficiente de determinação. Verificou-se ainda que as variáveis independentes, rácio de liquidez geral, grau de cobertura do ativo total pelo fundo de maneio e rácio de endividamento global são estatisticamente relevantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de Estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Mestre Carlos Lourenço Moreira de Barros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Solicitaria