130 resultados para quality cost
Resumo:
Neste trabalho é abordado o estágio efectuado por um período de sete meses na E.A. (Engenheiros Associados) e um estudo de caso sobre as tecnologias aplicadas no isolamento térmico de paredes exteriores. Na primeira parte deste relatório é efectuada uma breve caracterização da empresa e da sua actividade no mercado. A Engenheiros e Associados tem a sua estrutura assente nos seguintes sectores: Técnico-Comercial, de Aprovisionamento e de Gestão Administrativa; da qual foi efectuada uma descrição do trabalho desenvolvido em cada um desses sectores, nomeadamente a permanência na obra e as visitas e diligências às obras. A segunda parte deste relatório, que é a parte fulcral do trabalho desenvolvido, assenta sobre o sistema de ETICS (External Thermal Insulation Composite System), ou seja, o sistema de reboco delgado armado sobre isolamento térmico. Foi utilizado o sistema Cappotto na Obra de Requalificação da Urbanização de Vila d’Este – 1ª Fase. Após uma breve apresentação e evolução da história do ETICS ao longo do tempo, é exposta a caracterização da obra onde vai ser aplicado o sistema, que recai sobre a tipologia dos edifícios. Refira-se que, neste relatório, os edifícios por serem de construção túnel se dividem em três tipos: tipo plana ou corrente, tipo ângulo e tipo topo. Na Analise de Patologias efectuada evidenciam-se as fissuras e a humidade presentes em quase toda a extensão dos referidos edifícios antes do tratamento, tornando-as assim as principais anomalias destes edifícios. Foram elemento de foco as anomalias existentes nos edifícios, como: Deterioração do fibrocimento; Insuficiência das caleiras; Deficiências das impermeabilizações; Ausência de rufos; Deficiência das ligações; Degradação do revestimento e pintura; Fissuração do reboco; Degradação dos forros exteriores; Deterioração das padieiras; Deterioração dos peitoris; Deterioração das juntas de dilatação; Infiltrações e condensações; Ruptura das canalizações; Deslocamentos; Deficiências de ventilação; Deficiências de estanqueidade; Inexistência de Sistema de combate a incêndios. Para estas patologias são apresentadas as propostas de solução de forma a eliminar as mesmas. Sendo o ETICS escolhido por ser o sistema que elimina a maior parte destas patologias, tendo em conta uma relação de qualidade/preço, é abordada de uma forma detalhada e extensiva da aplicação do sistema antes, durante e depois da obra em si. Assim como, é feita uma descrição pormenorizada do material utilizado para a implementação do sistema. A análise dos pontos críticos refere-se a zonas sensíveis onde há a necessidade de reforço do sistema com vista a eliminar o aparecimento posterior de patologias, como por exemplo as características de suporte. Após a aplicação do sistema podem aparecer algumas patologias das quais se destaca o facto dos produtos serem preparados em obra, o erro humano nas dosagens do fabricante e no acrescento de água sem necessidade e a par das condições climatéricas, são as causas mais comuns do aparecimento de anomalias no sistema de ETICS, provocando fissurações e infiltrações, que são descritas neste relatório. É também abordada a manutenção e reparação do sistema, onde a manutenção refere-se à lavagem e à remoção de microorganismos das paredes e posterior pintura. A reparação dos danos divide-se em dois tipos, áreas até 2 cm2 e áreas maiores que 2 cm2. Por fim, são apresentados alguns rendimentos, que foram possíveis obter ao longo do desenvolvimento do trabalho, dos materiais e da mão-de-obra, dando origem aos custos directos. Sendo também abordadas as vantagens e desvantagens do sistema desde o seu início até à sua conclusão.
Resumo:
No âmbito da unidade curricular Dissertação/Projeto/Estágio do 2ºano do Mestrado em Engenharia mecânica – Ramo Gestão Industrial do Instituto Superior de Engenharia do Porto, o presente trabalho de dissertação foi enquadrado num projeto industrial de melhoria com Instituto Kaizen, empresa de consultoria operacional. O projeto foi desenvolvido numa empresa de produção de componentes em ferro nodular destinados à indústria automóvel do mercado europeu, a Sakthi Portugal,SA. A realização deste projeto teve como objetivo a implementação do sistema de planeamento em Pull (produção puxada) na logística interna da Sakthi Portugal,SA recorrendo à metodologia Kaizen. Esta metodologia consiste na aplicação de ferramentas de TFM - Total Flow Management, integradas no Kaizen Management System. Neste projeto recorreu-se especialmente a um dos pilares que o constituem, o pilar do “Fluxo da Logística Interna”. Neste pilar encontram-se as várias metodologias utilizadas na otimização do fluxo de material e informação na logística interna. Estas metodologias foram aplicadas, com o objetivo do sistema produtivo operar de acordo com a necessidade do cliente, obtendo deste modo a minimização dos custo e o aumento da produtividade e qualidade. Em resultado da aplicação da metodologia seguida, foi possível atingir-se os objetivos definidos inicialmente e em alguns casos foi possível superar esses objetivos. Em função da abordagem integrada que foi seguida, conseguiu-se uma diminuição do “lead time” do processo de fabrico, redução dos produtos em curso de fabrico, libertação de espaço e redução de inventários. Estas melhorias resultaram numa movimentação interna na fábrica mais facilitada e num aumento global da produtividade. Como consequência positiva dos efeitos deste trabalho, pode-se apontar o facto de que a Sakthi Portugal SA aumentou a sua competitividade por tornar-se numa empresa mais dinâmica, mais adaptada ao mercado e com níveis de satisfação do cliente muito superiores.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
A Distribuição Individual Diária em Dose Unitária deve assegurar o maior rigor no Processo de Distribuição de Medicamentos, o que nem sempre se verificou no Hospital Pedro Hispano, dado que as Doses Unitárias devolvidas pelos Serviços de Internamento, nem sempre seguiam os Parâmetros de Qualidade. Assim, desenvolveu-se um estudo quasi-experimental, longitudinal, prospetivo e analítico, entre 1 de Março a 30 de Junho de 2012, no qual se analisaram as Doses Unitárias, devolvidas pelos Serviços de Internamento da Unidade Local de Saúde de Matosinhos a funcionam com Distribuição Individual Diária em Dose Unitária, tendo-se recolhido as não conformes relativamente aos Parâmetros de Qualidade instituídos. Na 1.ª fase do estudo (Recolha de amostras), foram contabilizadas 337 amostras, correspondentes a uma perda de 471 €. Na 2.ª fase do estudo (Implementação de acções correctivas às amostras previamente recolhidas), foram rejeitadas definitivamente 129 amostras, correspondentes a uma perda de 198 €. Na 4.ª fase do estudo (Segunda recolha de amostras), foram contabilizadas 228 amostras, correspondentes a uma perda de 199 €. A 3.ª fase do estudo incluiu a divulgação dos resultados às enfermeiras chefes dos serviços envolvidos no estudo e a 5.ª fase a comparação dos resultados obtidos na 1.ª, 2.ª e 4.ª fase do estudo. As amostras foram recolhidas em 16 serviços de internamento, sendo os valores monetários mais relevantes associados ao Espessante para alimentos líquidos e ao Imipeno + Cilastatina. A prática observada e sujeita a estudo aumenta os riscos associados ao consumo do medicamento e os custos relativos ao Processo, sendo de eliminar. A sua monitorização deve constituir uma rotina, uma vez que houve mudança de comportamentos. A redução/eliminação desta prática não conforme conduz à integração de novas tarefas com valor acrescentado, com aumento da fiabilidade do Processo.
Resumo:
This study examined the joint effects of home environment and center-based child care quality on children’s language, communication, and early literacy development, while also considering prior developmental level. Participants were 95 children (46 boys), assessed as toddlers (mean age = 26.33 months;Time 1) and preschoolers (mean age = 68.71 months; Time 2) and their families. At both times, children attended center-based child care classrooms in the metropolitan area of Porto, Portugal. Results from hierarchical linear models indicated that home environment and preschool quality, but not center-based toddler child care quality, were associated with children’s language and literacy outcomes at Time 2. Moreover, the quality of preschool classrooms moderated the association between home environment quality and children’s language and early literacy skills – but not communication skills – at Time 2, suggesting the positive cumulative effects of home environment and preschool quality. Findings further support the existence of a detrimental effect of low preschool quality on children’s language and early literacy outcomes: positive associations among home environment quality and children’s developmental outcomes were found to reduce substantially when children attended low-quality preschool classrooms.
Resumo:
The interest in zero-valent iron nanoparticles has been increasing significantly since the development of a green production method in which extracts from natural products or wastes are used. However, this field of application is yet poorly studied and lacks knowledge that allows the full understanding of the production and application processes. The aim of the present work was to evaluate the viability of the utilization of several tree leaves to produce extracts which are capable of reducing iron(III) in aqueous solution to form nZVIs. The quality of the extracts was evaluated concerning their antioxidant capacity. The results show that: i) dried leaves produce extracts with higher antioxidant capacities than non-dried leaves, ii) the most favorable extraction conditions (temperature, contact time, and volume:mass ratio) were identified for each leaf, iii) with the aim of developing a green, but also low-cost,method waterwas chosen as solvent, iv) the extracts can be classified in three categories according to their antioxidant capacity (expressed as Fe(II) concentration): >40 mmol L−1; 20–40 mmol L−1; and 2–10 mmol L−1; with oak, pomegranate and green tea leaves producing the richest extracts, and v) TEManalysis proves that nZVIs (d=10–20 nm) can be produced using the tree leaf extracts.
Resumo:
The higher education system in Europe is currently under stress and the debates over its reform and future are gaining momentum. Now that, for most countries, we are in a time for change, in the overall society and the whole education system, the legal and political dimensions have gained prominence, which has not been followed by a more integrative approach of the problem of order, its reform and the issue of regulation, beyond the typical static and classical cost-benefit analyses. The two classical approaches for studying (and for designing the policy measures of) the problem of the reform of the higher education system - the cost-benefit analysis and the legal scholarship description - have to be integrated. This is the argument of our paper that the very integration of economic and legal approaches, what Warren Samuels called the legal-economic nexus, is meaningful and necessary, especially if we want to address the problem of order (as formulated by Joseph Spengler) and the overall regulation of the system. On the one hand, and without neglecting the interest and insights gained from the cost-benefit analysis, or other approaches of value for money assessment, we will focus our study on the legal, social and political aspects of the regulation of the higher education system and its reform in Portugal. On the other hand, the economic and financial problems have to be taken into account, but in a more inclusive way with regard to the indirect and other socio-economic costs not contemplated in traditional or standard assessments of policies for the tertiary education sector. In the first section of the paper, we will discuss the theoretical and conceptual underpinning of our analysis, focusing on the evolutionary approach, the role of critical institutions, the legal-economic nexus and the problem of order. All these elements are related to the institutional tradition, from Veblen and Commons to Spengler and Samuels. The second section states the problem of regulation in the higher education system and the issue of policy formulation for tackling the problem. The current situation is clearly one of crisis with the expansion of the cohorts of young students coming to an end and the recurrent scandals in private institutions. In the last decade, after a protracted period of extension or expansion of the system, i. e., the continuous growth of students, universities and other institutions are competing harder to gain students and have seen their financial situation at risk. It seems that we are entering a period of radical uncertainty, higher competition and a new configuration that is slowly building up is the growth in intensity, which means upgrading the quality of the higher learning and getting more involvement in vocational training and life-long learning. With this change, and along with other deep ones in the Portuguese society and economy, the current regulation has shown signs of maladjustment. The third section consists of our conclusions on the current issue of regulation and policy challenge. First, we underline the importance of an evolutionary approach to a process of change that is essentially dynamic. A special attention will be given to the issues related to an evolutionary construe of policy analysis and formulation. Second, the integration of law and economics, through the notion of legal economic nexus, allows us to better define the issues of regulation and the concrete problems that the universities are facing. One aspect is the instability of the political measures regarding the public administration and on which the higher education system depends financially, legally and institutionally, to say the least. A corollary is the lack of clear strategy in the policy reforms. Third, our research criticizes several studies, such as the one made by the OECD in late 2006 for the Ministry of Science, Technology and Higher Education, for being too static and neglecting fundamental aspects of regulation such as the logic of actors, groups and organizations who are major players in the system. Finally, simply changing the legal rules will not necessary per se change the behaviors that the authorities want to change. By this, we mean that it is not only remiss of the policy maker to ignore some of the critical issues of regulation, namely the continuous non-respect by academic management and administrative bodies of universities of the legal rules that were once promulgated. Changing the rules does not change the problem, especially without the necessary debates form the different relevant quarters that make up the higher education system. The issues of social interaction remain as intact. Our treatment of the matter will be organized in the following way. In the first section, the theoretical principles are developed in order to be able to study more adequately the higher education transformation with a modest evolutionary theory and a legal and economic nexus of the interactions of the system and the policy challenges. After describing, in the second section, the recent evolution and current working of the higher education in Portugal, we will analyze the legal framework and the current regulatory practices and problems in light of the theoretical framework adopted. We will end with some conclusions on the current problems of regulation and the policy measures that are discusses in recent years.
Resumo:
Radio link quality estimation in Wireless Sensor Networks (WSNs) has a fundamental impact on the network performance and also affects the design of higher-layer protocols. Therefore, for about a decade, it has been attracting a vast array of research works. Reported works on link quality estimation are typically based on different assumptions, consider different scenarios, and provide radically different (and sometimes contradictory) results. This article provides a comprehensive survey on related literature, covering the characteristics of low-power links, the fundamental concepts of link quality estimation in WSNs, a taxonomy of existing link quality estimators, and their performance analysis. To the best of our knowledge, this is the first survey tackling in detail link quality estimation in WSNs. We believe our efforts will serve as a reference to orient researchers and system designers in this area.
Resumo:
Reliability of communications is key to expand application domains for sensor networks. SinceWireless Sensor Networks (WSN) operate in the license-free Industrial Scientific and Medical (ISM) bands and hence share the spectrum with other wireless technologies, addressing interference is an important challenge. In order to minimize its effect, nodes can dynamically adapt radio resources provided information about current spectrum usage is available. We present a new channel quality metric, based on availability of the channel over time, which meaningfully quantifies spectrum usage. We discuss the optimum scanning time for capturing the channel condition while maintaining energy-efficiency. Using data collected from a number of Wi-Fi networks operating in a library building, we show that our metric has strong correlation with the Packet Reception Rate (PRR). This suggests that quantifying interference in the channel can help in adapting resources for better reliability. We present a discussion of the usage of our metric for various resource allocation and adaptation strategies.
Resumo:
A Igualdade entre Homens e Mulheres e a não discriminação constituem princípios fundamentais da Constituição da Republica Portuguesa e do Tratado que institui a União Europeia – Tratado de Lisboa. A desigualdade entre Homens e Mulheres constitui uma violação dos direitos fundamentais, e impõe um pesado custo à economia na medida em que se desaproveitam talentos em função do género. A promoção de uma efetiva igualdade entre Homens e Mulheres constitui um dever fundamental do Estado. A promoção da participação ativa de Homens e Mulheres na vida política, ao nível da administração central, regional e local, é também um forte indicador da qualidade da democracia de um estado. Tomando por base a temática da Igualdade de Género, o Roteiro para a Igualdade entre Homens e Mulheres (2006-2010), o pacto Europeu para a Igualdade entre os Sexos (2006), a Estratégia para a Igualdade entre Homens e Mulheres 2010-2015 que elencam ações consideradas prioritárias – igualdade na independência económica; igualdade na remuneração por trabalho igual e por trabalho de igual valor; igualdade na tomada de decisões; promoção da dignidade e a integridade, pôr fim à violência de género; e questões horizontais – papéis desempenhados por Homens e Mulheres, legislação, governação e instrumentos no domínio da igualdade entre Homens e Mulheres, o objeto deste estudo centra-se na atividade do Estado Português, mais concretamente ao nível local. Procurou-se enquadrar esta temática na Gestão dos Recursos Humanos, na busca de um conhecimento mais aprofundado sobre a implementação de Boas Práticas de Igualdade de Género e a sua relação nos domínios da Satisfação Laboral assim como no Clima Organizacional. O presente estudo expõe uma abordagem quantitativa, de carácter descritivo, exploratório, correlacional e preditivo. O tratamento estatístico realizou-se com recurso ao programa IBM SPSS Statistics, versão 21. Os resultados encontrados apontam para uma associação positiva entre a existência de boas práticas de igualdade de género e a satisfação laboral dos trabalhadores, assim como do clima organizacional. São apresentadas pistas para a intervenção no domínio da função da gestão e desenvolvimento dos recursos humanos.
Resumo:
Wireless sensor networks (WSNs) emerge as underlying infrastructures for new classes of large-scale networked embedded systems. However, WSNs system designers must fulfill the quality-of-service (QoS) requirements imposed by the applications (and users). Very harsh and dynamic physical environments and extremely limited energy/computing/memory/communication node resources are major obstacles for satisfying QoS metrics such as reliability, timeliness, and system lifetime. The limited communication range of WSN nodes, link asymmetry, and the characteristics of the physical environment lead to a major source of QoS degradation in WSNs-the ldquohidden node problem.rdquo In wireless contention-based medium access control (MAC) protocols, when two nodes that are not visible to each other transmit to a third node that is visible to the former, there will be a collision-called hidden-node or blind collision. This problem greatly impacts network throughput, energy-efficiency and message transfer delays, and the problem dramatically increases with the number of nodes. This paper proposes H-NAMe, a very simple yet extremely efficient hidden-node avoidance mechanism for WSNs. H-NAMe relies on a grouping strategy that splits each cluster of a WSN into disjoint groups of non-hidden nodes that scales to multiple clusters via a cluster grouping strategy that guarantees no interference between overlapping clusters. Importantly, H-NAMe is instantiated in IEEE 802.15.4/ZigBee, which currently are the most widespread communication technologies for WSNs, with only minor add-ons and ensuring backward compatibility with their protocols standards. H-NAMe was implemented and exhaustively tested using an experimental test-bed based on ldquooff-the-shelfrdquo technology, showing that it increases network throughput and transmission success probability up to twice the values obtained without H-NAMe. H-NAMe effectiveness was also demonstrated in a target tracking application with mobile robots - over a WSN deployment.
Resumo:
Wireless sensor networks (WSNs) are one of today’s most prominent instantiations of the ubiquituous computing paradigm. In order to achieve high levels of integration, WSNs need to be conceived considering requirements beyond the mere system’s functionality. While Quality-of-Service (QoS) is traditionally associated with bit/data rate, network throughput, message delay and bit/packet error rate, we believe that this concept is too strict, in the sense that these properties alone do not reflect the overall quality-ofservice provided to the user/application. Other non-functional properties such as scalability, security or energy sustainability must also be considered in the system design. This paper identifies the most important non-functional properties that affect the overall quality of the service provided to the users, outlining their relevance, state-of-the-art and future research directions.
Resumo:
Radio Link Quality Estimation (LQE) is a fundamental building block for Wireless Sensor Networks, namely for a reliable deployment, resource management and routing. Existing LQEs (e.g. PRR, ETX, Fourbit, and LQI ) are based on a single link property, thus leading to inaccurate estimation. In this paper, we propose F-LQE, that estimates link quality on the basis of four link quality properties: packet delivery, asymmetry, stability, and channel quality. Each of these properties is defined in linguistic terms, the natural language of Fuzzy Logic. The overall quality of the link is specified as a fuzzy rule whose evaluation returns the membership of the link in the fuzzy subset of good links. Values of the membership function are smoothed using EWMA filter to improve stability. An extensive experimental analysis shows that F-LQE outperforms existing estimators.
Resumo:
Link quality estimation is a fundamental building block for the design of several different mechanisms and protocols in wireless sensor networks (WSN). A thorough experimental evaluation of link quality estimators (LQEs) is thus mandatory. Several WSN experimental testbeds have been designed ([1–4]) but only [3] and [2] targeted link quality measurements. However, these were exploited for analyzing low-power links characteristics rather than the performance of LQEs. Despite its importance, the experimental performance evaluation of LQEs remains an open problem, mainly due to the difficulty to provide a quantitative evaluation of their accuracy. This motivated us to build a benchmarking testbed for LQE - RadiaLE, which we present here as a demo. It includes (i.) hardware components that represent the WSN under test and (ii.) a software tool for the set up and control of the experiments and also for analyzing the collected data, allowing for LQEs evaluation.
Resumo:
Due to the growing complexity and adaptability requirements of real-time embedded systems, which often exhibit unrestricted inter-dependencies among supported services and user-imposed quality constraints, it is increasingly difficult to optimise the level of service of a dynamic task set within an useful and bounded time. This is even more difficult when intending to benefit from the full potential of an open distributed cooperating environment, where service characteristics are not known beforehand. This paper proposes an iterative refinement approach for a service’s QoS configuration taking into account services’ inter-dependencies and quality constraints, and trading off the achieved solution’s quality for the cost of computation. Extensive simulations demonstrate that the proposed anytime algorithm is able to quickly find a good initial solution and effectively optimises the rate at which the quality of the current solution improves as the algorithm is given more time to run. The added benefits of the proposed approach clearly surpass its reducedoverhead.