8 resultados para Cost-effectiveness analysis
em Instituto Politécnico do Porto, Portugal
Resumo:
Este trabalho visa apresentar um enquadramento da realidade económica e industrial do sector transformador de granitos ornamentais em Portugal e fazer uma análise do processo de serragem, com engenhos multi-lâminas e granalha de aço, na medida em que este é o método de seccionamento de blocos de granito mais utilizado pelas grandes indústrias do sector. Tendo em conta a importância económica desta operação produtiva na indústria em causa, foi definido como fito deste projecto a análise estatística dos custos de produção; a definição de fórmulas de cálculo que permitam prever o custo médio de serragem; e o estudo de soluções economicamente viáveis e ambientalmente sustentáveis para o problema das lamas resultantes do expurgo dos engenhos. Para a persecução deste projecto foi realizada uma recolha de dados implementando rotinas de controlo e registo dos mesmos, em quadros de produção normalizados e de fácil preenchimento, pelos operadores destes equipamentos. Esta recolha de dados permitiu isolar, quantificar e formular os factores de rentabilização do processo de serragem selecionando, dentro da amostra de estudo obtida, um conjunto de serragens com características similares e com valores próximos dos valores da média estatística. Apartir dos dados destas serragens foram geradas curvas de tendência polinomial com as quais se analisaram as variações provocadas no custo médio de serragem, pelas variações do factor em estudo. A formulação dos factores de rentabilização e os dados estatísticos obtidos permitiram depois o desenvolvimento de fórmulas de cálculo do custo médio de serragem que establecem o custo de produção diferenciado em função das espessuras com, ou sem, a incorporação dos factores de rentabilização. Como consequência do projecto realizado obteve-se um conjunto de conclusões util, para o sector industrial em causa, que evidencia a importancia da Ocupação dos engenhos e rentabilização de um espaço confinado, da Resistência oferecida à serragem pelos granitos, e da Diferença de altura entre os blocos de uma mesma carga, nos custos de transformação.
Resumo:
O diagnóstico de doença hepática autoimune em doentes com patologia hepática implica a exclusão de outras causas de lesão hepática como vírica, alcoólica, tóxica, devido a alterações genéticas ou metabólicas, esteatose hepática não alcoólica e uma criteriosa avaliação de dados clínicos, bioquímicos, histológicos e colangiográficos especificas destas patologias (Invernizzi et al 2007) O diagnóstico e tratamento precoces destas patologias são fundamentais para a prevenção da alta morbilidade e mortalidade associada a estes doentes. O despiste de patologia hepática autoimune assenta na utilização de testes serológicos para a deteção de autoanticorpos associados a estas patologias. O conhecimento destes testes e a interpretação dos resultados obtidos revelam-se fundamentais para o diagnóstico ou exclusão destas doenças (Beuers 2005). Deste modo, foi objetivo deste trabalho a pesquisa e identificação de autoanticorpos em uso clínico: ANA, AMA, AML, ANCA, Anti-SLA/LP, anti-LKM, anti-LC1 e anti-actina F, em doentes com suspeita de HAI e CBP em que foi excluída causa vírica, alcoólica e tóxica. O trabalho incidiu particularmente na comparação dos resultados do perfil de autoanticorpos de pedidos feitos ao exterior com os resultados obtidos recorrendo à utilização de um novo kit de imunoblot, e assim determinar a relevância da introdução da pesquisa dos novos autoanticorpos e avaliar a relação custo/benefício da implementação do kit BlueDot liver da D-tek® na rotina laboratorial do serviço de Patologia Clínica do Hospital Pedro Hispano. Os resultados encontrados foram de 100% de concordância entre os métodos de imunofluorescência indireta e imunoblot, e Elisa e Imunoblot. Deste modo seria uma boa estratégia a implementação desta última técnica na rotina laboratorial uma vez que proporciona uma rápida disponibilização dos resultados para o clínico, antecipando desta forma o diagnóstico e o início rápido do tratamento em benefício do doente. Por outro lado, quando analisámos a relação custo/beneficio, seria vantajosa a implementação desta técnica uma vez que o laboratório dispõe de capacidade técnica, e o custo de aquisição do kit não excede o valor praticado atualmente correspondendo a uma poupança de 51%.
Resumo:
Devido à crescente preocupação com a racionalização energética, torna-se importante adequar os edifícios à sua utilização futura, procedendo à escolha acertada de materiais e técnicas a utilizar na construção e/ou na remodelação. Atualmente, com o desenvolvimento tecnológico, os serviços profissionais e os materiais existentes ao dispor dos projectistas e construtores permitem a implementação eficaz de soluções de elevado impacto a nível da eficiência energética dos edifícios de uma forma acessível e não muito dispendiosa. Nesta área, a regulamentação é essencial para controlar e catalogar energeticamente os sistemas, mitigando o seu sobredimensionamento e consequentes desperdícios, de forma a contribuir eficazmente para as melhorias ambientais e económicas pretendidas. Sem dúvida, que a preocupação consiste em tornar a médio/longo prazo o investimento numa poupança acrescida, proporcionando os mesmos níveis de conforto. As técnicas de climatização e todo o equipamento que está associado têm um peso importante nos custos e na exploração ao longo do tempo. Os sistemas de gestão técnica só poderão tirar partido de toda a estrutura, tornando-a confiável, se forem corretamente projetados. Com este trabalho, pretende-se sensibilizar o leitor sobre as questões práticas associadas ao correto dimensionamento de soluções que contribuam para a eficiência energética dos edifícios, exemplificando-se com um caso de estudo: um edifício de um centro escolar construído obedecendo aos requisitos listados no programa de renovação do parque escolar que o governo incentivou. A sensibilização passa por propostas objetivas de soluções alternativas que poderiam ter sido adotadas ainda na fase de projeto do caso de estudo, tendo em conta os custos e operacionalidade dos sistemas e o local em que se encontram, e que poderiam ter contribuído para melhorar a eficiência energética de todo o edifício, bem como por soluções transversais que se poderiam aplicar em outras situações. Todas as sugestões passam pela simplificação, com o objetivo de contribuir para uma melhor racionalização a curto e longo prazo dos recursos disponibilizados.
Resumo:
Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau de Mestre em Auditoria Orientada por Professor Doutor António Carvalho Pedrosa
Resumo:
The higher education system in Europe is currently under stress and the debates over its reform and future are gaining momentum. Now that, for most countries, we are in a time for change, in the overall society and the whole education system, the legal and political dimensions have gained prominence, which has not been followed by a more integrative approach of the problem of order, its reform and the issue of regulation, beyond the typical static and classical cost-benefit analyses. The two classical approaches for studying (and for designing the policy measures of) the problem of the reform of the higher education system - the cost-benefit analysis and the legal scholarship description - have to be integrated. This is the argument of our paper that the very integration of economic and legal approaches, what Warren Samuels called the legal-economic nexus, is meaningful and necessary, especially if we want to address the problem of order (as formulated by Joseph Spengler) and the overall regulation of the system. On the one hand, and without neglecting the interest and insights gained from the cost-benefit analysis, or other approaches of value for money assessment, we will focus our study on the legal, social and political aspects of the regulation of the higher education system and its reform in Portugal. On the other hand, the economic and financial problems have to be taken into account, but in a more inclusive way with regard to the indirect and other socio-economic costs not contemplated in traditional or standard assessments of policies for the tertiary education sector. In the first section of the paper, we will discuss the theoretical and conceptual underpinning of our analysis, focusing on the evolutionary approach, the role of critical institutions, the legal-economic nexus and the problem of order. All these elements are related to the institutional tradition, from Veblen and Commons to Spengler and Samuels. The second section states the problem of regulation in the higher education system and the issue of policy formulation for tackling the problem. The current situation is clearly one of crisis with the expansion of the cohorts of young students coming to an end and the recurrent scandals in private institutions. In the last decade, after a protracted period of extension or expansion of the system, i. e., the continuous growth of students, universities and other institutions are competing harder to gain students and have seen their financial situation at risk. It seems that we are entering a period of radical uncertainty, higher competition and a new configuration that is slowly building up is the growth in intensity, which means upgrading the quality of the higher learning and getting more involvement in vocational training and life-long learning. With this change, and along with other deep ones in the Portuguese society and economy, the current regulation has shown signs of maladjustment. The third section consists of our conclusions on the current issue of regulation and policy challenge. First, we underline the importance of an evolutionary approach to a process of change that is essentially dynamic. A special attention will be given to the issues related to an evolutionary construe of policy analysis and formulation. Second, the integration of law and economics, through the notion of legal economic nexus, allows us to better define the issues of regulation and the concrete problems that the universities are facing. One aspect is the instability of the political measures regarding the public administration and on which the higher education system depends financially, legally and institutionally, to say the least. A corollary is the lack of clear strategy in the policy reforms. Third, our research criticizes several studies, such as the one made by the OECD in late 2006 for the Ministry of Science, Technology and Higher Education, for being too static and neglecting fundamental aspects of regulation such as the logic of actors, groups and organizations who are major players in the system. Finally, simply changing the legal rules will not necessary per se change the behaviors that the authorities want to change. By this, we mean that it is not only remiss of the policy maker to ignore some of the critical issues of regulation, namely the continuous non-respect by academic management and administrative bodies of universities of the legal rules that were once promulgated. Changing the rules does not change the problem, especially without the necessary debates form the different relevant quarters that make up the higher education system. The issues of social interaction remain as intact. Our treatment of the matter will be organized in the following way. In the first section, the theoretical principles are developed in order to be able to study more adequately the higher education transformation with a modest evolutionary theory and a legal and economic nexus of the interactions of the system and the policy challenges. After describing, in the second section, the recent evolution and current working of the higher education in Portugal, we will analyze the legal framework and the current regulatory practices and problems in light of the theoretical framework adopted. We will end with some conclusions on the current problems of regulation and the policy measures that are discusses in recent years.
Resumo:
Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.
Resumo:
O presente trabalho pretende mostrar que a aplicação de medidas de conservação de energia (MCE) pode representar uma redução da intensidade de utilização de matérias-primas na construção de um edifício. Mais concretamente, pode representar uma redução da utilização de materiais e equipamentos, e como consequência, uma redução no esforço económico ao primeiro investimento. Podendo posteriormente representar uma redução na utilização de energia durante o período de funcionamento do edifício. A aplicação de MCE no sector da construção tem vindo a ser uma prática corrente nos novos edifícios e edifícios sujeitos a grandes intervenções de reabilitação. Esta prática deve-se à obrigatoriedade de cumprimento de requisitos regulamentares aplicados à otimização do desempenho energético dos edifícios e dos seus sistemas técnicos, nomeadamente, o RCCTE e o RSECE, entretanto revogados pelo REH e pelo RECS, respetivamente. A implementação de MCE apresenta, na maioria dos casos, benefícios económicos para o promotor do edifício, uma vez que se traduz muitas vezes, na otimização do dimensionamento dos sistemas de Aquecimento, Ventilação e Ar Condicionado (AVAC). Esta otimização permite reduzir os custos associados ao primeiro investimento, bem como na utilização de energia por parte do utilizador, logo na redução dos custos de exploração. No entanto, a falta de quantificação dos impactos do dimensionamento dos sistemas AVAC, da redução de utilização de energia e da análise do custo-benefício da sua aplicação pode condicionar o interesse na sua implementação. Neste contexto, surge a presente dissertação, por iniciativa do Instituto Soldadura e Qualidade (ISQ), aplicado a um caso prático de um edifício já construído e propriedade daquela empresa. Com este trabalho pretende-se avaliar o contributo efetivo das MCE implementadas na fase de projeto e na fase de construção, quer na otimização da dimensão de sistemas e equipamentos AVAC, por via da redução das necessidades energéticas, quer na redução de utilização de energia, permitindo, de seguida, uma avaliação custo-benefício.Na base do caso de estudo está o ECOTERMOLAB, o edifício acima referido, adquirido pelo ISQ para instalação de um laboratório de formação, investigação e desenvolvimento na área da energia. Após aquisição pelo ISQ, o edifício sofreu várias alterações/beneficiações, entre as quais a implementação de MCE, tais como, a aplicação de isolamento térmico na envolvente opaca (paredes, pavimentos e coberturas), duplicação dos vãos envidraçados simples, conferindo-lhes melhores caraterísticas térmicas, e pela aplicação de proteções solar. Foram ainda adotadas MCE aos sistemas AVAC, designadamente, pela adoção de recuperadores de calor nas Unidades de Tratamento de Ar Novo (UTAN’s) e de variadores de velocidade nas bombas de circulação de água e nos ventiladores de ar das UTAN’s. Pretendia o ISQ concluir se a aplicação de todas as MCE contribuiu de forma efetiva para o dimensionamento de sistemas e equipamentos AVAC de menor capacidade e, consequentemente, numa redução de utilização de energia. Em sequência, pretendia avaliar a viabilidade económica da aplicação de todas as MCE, estimando o sobrecusto inicial e o tempo necessário para o retorno financeiro daquele investimento. Para alcançar os objetivos propostos, procedeu-se à simulação energética dinâmica do ECOTERMOLAB, utilizando o programa EnergyPlus. Primeiro foi simulada uma situação base do edifício, sem quaisquer MCE. Posteriormente foi caraterizada cada uma das situações de aplicação das MCE, com o objetivo de avaliar o respetivo impacto individual na utilização de energia pelos sistemas AVAC. Por último foram assumidas todas as soluções em conjunto para avaliar o impacto final de todas as MCE na utilização de energia dos sistemas AVAC, bem como no seu dimensionamento. Das simulações dinâmicas foram obtidos os valores das necessidades de aquecimento e arrefecimento, de energia utilizada pelos sistemas AVAC e de caudais de água aquecida e arrefecida circulada. Com estes valores foi feita uma estimativa de dimensionamento dos equipamentos e componentes AVAC para as situações da aplicação de todas as MCE no ECOTERMOLAB e a sua ausência. A partir da diferença dos custos de aquisição dos respetivos equipamentos e dos valores de poupança em energia foi realizado o estudo da viabilidade económica da implementação das MCE neste edifício. Este estudo permitiu concluir que a aplicação das MCE no ECOTERMOLAB levou à redução da dimensão na generalidade dos equipamentos e componentes AVAC. Permitiu, ainda, concluir que houve uma diminuição de utilização de energia por parte destes sistemas e equipamentos para o aquecimento e arrefecimento. Conclui-se ainda que o período de retorno (Payback) do sobrecusto inicial, estimado em 37.822€ é de, aproximadamente, onze anos e meio, para um valor atual líquido (VAL) de 8.061€ e à taxa interna de rentabilidade (TIR) de 7,03%.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.