933 resultados para quality cost
Resumo:
Este trabalho pretende avaliar e melhorar o modo de execução da aplicação da técnica de perfuração, não comprometendo a jusante, no ciclo de operações, a qualidade do desmonte, visando assim, uma optimização técnico-económica. Este manuscrito irá centrar-se na optimização da etapa da perfuração, visando assim a optimização do ciclo total da perfuração. As tarefas realizadas numa pedreira constituem um ciclo de operações. Uma das operações envolvidas no desmonte de maciços rochosos é a perfuração. A forma como esta é executada é determinante para o sucesso do desmonte. O correcto dimensionamento dos acessórios de perfuração, afiação de bits, manutenção preventiva dos equipamentos de perfuração e a constante formação dos operadores fazem parte de um conjunto de acções que irão determinar o sucesso da operação de perfuração, tendo sempre em vista, uma optimização técnico-económica, ou seja, produzir mais a um custo mais baixo. O estudo dos parâmetros do maciço rochoso aliado a uma perfuração cuidadosa e alinhada é evidenciado com o intuito de uma abordagem de geoengenharia integrada dos maciços rochosos. O estudo foi realizado na pedreira da APS, S.A. (Pedreira de Monte Chãos), tendo como análise os dados desde o início do projecto até à data. Para fundamentar este estudo, aborda-se os parâmetros geológico-geotécnicos e geomecânicos do maciço remanescente, verificando assim as ferramentas de corte mais adequadas ao caso e averiguar a influência da afiação de bits, quer seja manual ou semiautomática, e de que forma a mesma irá influenciar nos rendimentos e vidas úteis obtidas, tendo como objectivo, melhorar o custo por metro de furação realizado.
Resumo:
All over the world, the liberalization of electricity markets, which follows different paradigms, has created new challenges for those involved in this sector. In order to respond to these challenges, electric power systems suffered a significant restructuring in its mode of operation and planning. This restructuring resulted in a considerable increase of the electric sector competitiveness. Particularly, the Ancillary Services (AS) market has been target of constant renovations in its operation mode as it is a targeted market for the trading of services, which have as main objective to ensure the operation of electric power systems with appropriate levels of stability, safety, quality, equity and competitiveness. In this way, with the increasing penetration of distributed energy resources including distributed generation, demand response, storage units and electric vehicles, it is essential to develop new smarter and hierarchical methods of operation of electric power systems. As these resources are mostly connected to the distribution network, it is important to consider the introduction of this kind of resources in AS delivery in order to achieve greater reliability and cost efficiency of electrical power systems operation. The main contribution of this work is the design and development of mechanisms and methodologies of AS market and for energy and AS joint market, considering different management entities of transmission and distribution networks. Several models developed in this work consider the most common AS in the liberalized market environment: Regulation Down; Regulation Up; Spinning Reserve and Non-Spinning Reserve. The presented models consider different rules and ways of operation, such as the division of market by network areas, which allows the congestion management of interconnections between areas; or the ancillary service cascading process, which allows the replacement of AS of superior quality by lower quality of AS, ensuring a better economic performance of the market. A major contribution of this work is the development an innovative methodology of market clearing process to be used in the energy and AS joint market, able to ensure viable and feasible solutions in markets, where there are technical constraints in the transmission network involving its division into areas or regions. The proposed method is based on the determination of Bialek topological factors and considers the contribution of the dispatch for all services of increase of generation (energy, Regulation Up, Spinning and Non-Spinning reserves) in network congestion. The use of Bialek factors in each iteration of the proposed methodology allows limiting the bids in the market while ensuring that the solution is feasible in any context of system operation. Another important contribution of this work is the model of the contribution of distributed energy resources in the ancillary services. In this way, a Virtual Power Player (VPP) is considered in order to aggregate, manage and interact with distributed energy resources. The VPP manages all the agents aggregated, being able to supply AS to the system operator, with the main purpose of participation in electricity market. In order to ensure their participation in the AS, the VPP should have a set of contracts with the agents that include a set of diversified and adapted rules to each kind of distributed resource. All methodologies developed and implemented in this work have been integrated into the MASCEM simulator, which is a simulator based on a multi-agent system that allows to study complex operation of electricity markets. In this way, the developed methodologies allow the simulator to cover more operation contexts of the present and future of the electricity market. In this way, this dissertation offers a huge contribution to the AS market simulation, based on models and mechanisms currently used in several real markets, as well as the introduction of innovative methodologies of market clearing process on the energy and AS joint market. This dissertation presents five case studies; each one consists of multiple scenarios. The first case study illustrates the application of AS market simulation considering several bids of market players. The energy and ancillary services joint market simulation is exposed in the second case study. In the third case study it is developed a comparison between the simulation of the joint market methodology, in which the player bids to the ancillary services is considered by network areas and a reference methodology. The fourth case study presents the simulation of joint market methodology based on Bialek topological distribution factors applied to transmission network with 7 buses managed by a TSO. The last case study presents a joint market model simulation which considers the aggregation of small players to a VPP, as well as complex contracts related to these entities. The case study comprises a distribution network with 33 buses managed by VPP, which comprises several kinds of distributed resources, such as photovoltaic, CHP, fuel cells, wind turbines, biomass, small hydro, municipal solid waste, demand response, and storage units.
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação de Amélia Cristina Ferreira da Silva
Resumo:
Radio link quality estimation is essential for protocols and mechanisms such as routing, mobility management and localization, particularly for low-power wireless networks such as wireless sensor networks. Commodity Link Quality Estimators (LQEs), e.g. PRR, RNP, ETX, four-bit and RSSI, can only provide a partial characterization of links as they ignore several link properties such as channel quality and stability. In this paper, we propose F-LQE (Fuzzy Link Quality Estimator, a holistic metric that estimates link quality on the basis of four link quality properties—packet delivery, asymmetry, stability, and channel quality—that are expressed and combined using Fuzzy Logic. We demonstrate through an extensive experimental analysis that F-LQE is more reliable than existing estimators (e.g., PRR, WMEWMA, ETX, RNP, and four-bit) as it provides a finer grain link classification. It is also more stable as it has lower coefficient of variation of link estimates. Importantly, we evaluate the impact of F-LQE on the performance of tree routing, specifically the CTP (Collection Tree Protocol). For this purpose, we adapted F-LQE to build a new routing metric for CTP, which we dubbed as F-LQE/RM. Extensive experimental results obtained with state-of-the-art widely used test-beds show that F-LQE/RM improves significantly CTP routing performance over four-bit (the default LQE of CTP) and ETX (another popular LQE). F-LQE/RM improves the end-to-end packet delivery by up to 16%, reduces the number of packet retransmissions by up to 32%, reduces the Hop count by up to 4%, and improves the topology stability by up to 47%.
Resumo:
Sulfadimethoxine (SDM) is one of the drugs, often used in the aquaculture sector to prevent the spread of disease in freshwater fish aquaculture. Its spread through the soil and surface water can contribute to an increase in bacterial resistance. It is therefore important to control this product in the environment. This work proposes a simple and low-cost potentiometric device to monitor the levels of SDM in aquaculture waters, thus avoiding its unnecessary release throughout the environment. The device combines a micropipette tip with a PVC membrane selective to SDM, prepared from an appropriate cocktail, and an inner reference solution. The membrane includes 1% of a porphyrin derivative acting as ionophore and a small amount of a lipophilic cationic additive (corresponding to 0.2% in molar ratio). The composition of the inner solution was optimized with regard to the kind and/or concentration of primary ion, chelating agent and/or a specific interfering charged species, in different concentration ranges. Electrodes constructed with inner reference solutions of 1 × 10−8 mol/L SDM and 1 × 10−4 mol/L chromate ion showed the best analytical features. Near-Nernstian response was obtained with slopes of −54.1 mV/decade, an extraordinary detection limit of 7.5 ng/mL (2.4 × 10−8 mol/L) when compared with other electrodes of the same type. The reproducibility, stability and response time are good and even better than those obtained by liquid contact ISEs. Recovery values of 98.9% were obtained from the analysis of aquaculture water samples.
Resumo:
Cyanobacteria deteriorate the water quality and are responsible for emerging outbreaks and epidemics causing harmful diseases in Humans and animals because of their toxins. Microcystin-LR (MCT) is one of the most relevant cyanotoxin, being the most widely studied hepatotoxin. For safety purposes, the World Health Organization recommends a maximum value of 1 μg L−1 of MCT in drinking water. Therefore, there is a great demand for remote and real-time sensing techniques to detect and quantify MCT. In this work a Fabry–Pérot sensing probe based on an optical fibre tip coated with a MCT selective thin film is presented. The membranes were developed by imprinting MCT in a sol–gel matrix that was applied over the tip of the fibre by dip coating. The imprinting effect was obtained by curing the sol–gel membrane, prepared with (3-aminopropyl) trimethoxysilane (APTMS), diphenyl-dimethoxysilane (DPDMS), tetraethoxysilane (TEOS), in the presence of MCT. The imprinting effect was tested by preparing a similar membrane without template. In general, the fibre Fabry–Pérot with a Molecular Imprinted Polymer (MIP) sensor showed low thermal effect, thus avoiding the need of temperature control in field applications. It presented a linear response to MCT concentration within 0.3–1.4 μg L−1 with a sensitivity of −12.4 ± 0.7 nm L μg−1. The corresponding Non-Imprinted Polymer (NIP) displayed linear behaviour for the same MCT concentration range, but with much less sensitivity, of −5.9 ± 0.2 nm L μg−1. The method shows excellent selectivity for MCT against other species co-existing with the analyte in environmental waters. It was successfully applied to the determination of MCT in contaminated samples. The main advantages of the proposed optical sensor include high sensitivity and specificity, low-cost, robustness, easy preparation and preservation.
Resumo:
Currently, due to the widespread use of computers and the internet, students are trading libraries for the World Wide Web and laboratories with simulation programs. In most courses, simulators are made available to students and can be used to proof theoretical results or to test a developing hardware/product. Although this is an interesting solution: low cost, easy and fast way to perform some courses work, it has indeed major disadvantages. As everything is currently being done with/in a computer, the students are loosing the “feel” of the real values of the magnitudes. For instance in engineering studies, and mainly in the first years, students need to learn electronics, algorithmic, mathematics and physics. All of these areas can use numerical analysis software, simulation software or spreadsheets and in the majority of the cases data used is either simulated or random numbers, but real data could be used instead. For example, if a course uses numerical analysis software and needs a dataset, the students can learn to manipulate arrays. Also, when using the spreadsheets to build graphics, instead of using a random table, students could use a real dataset based, for instance, in the room temperature and its variation across the day. In this work we present a framework which uses a simple interface allowing it to be used by different courses where the computers are the teaching/learning process in order to give a more realistic feeling to students by using real data. A framework is proposed based on a set of low cost sensors for different physical magnitudes, e.g. temperature, light, wind speed, which are connected to a central server, that the students have access with an Ethernet protocol or are connected directly to the student computer/laptop. These sensors use the communication ports available such as: serial ports, parallel ports, Ethernet or Universal Serial Bus (USB). Since a central server is used, the students are encouraged to use sensor values results in their different courses and consequently in different types of software such as: numerical analysis tools, spreadsheets or simply inside any programming language when a dataset is needed. In order to do this, small pieces of hardware were developed containing at least one sensor using different types of computer communication. As long as the sensors are attached in a server connected to the internet, these tools can also be shared between different schools. This allows sensors that aren't available in a determined school to be used by getting the values from other places that are sharing them. Another remark is that students in the more advanced years and (theoretically) more know how, can use the courses that have some affinities with electronic development to build new sensor pieces and expand the framework further. The final solution provided is very interesting, low cost, simple to develop, allowing flexibility of resources by using the same materials in several courses bringing real world data into the students computer works.
Resumo:
The pathogenesis of the renal lesion upon envenomation by snakebite has been related to myolysis, hemolysis, hypotension and/or direct venom nephrotoxicity caused by the venom. Both primary and continuous cell culture systems provide an in vitro alternative for quantitative evaluation of the toxicity of snake venoms. Crude Crotalus vegrandis venom was fractionated by molecular exclusion chromatography. The toxicity of C. vegrandis crude venom, hemorrhagic, and neurotoxic fractions were evaluated on mouse primary renal cells and a continuous cell line of Vero cells maintained in vitro. Cells were isolated from murine renal cortex and were grown in 96 well plates with Dulbecco's Modified Essential Medium (DMEM) and challenged with crude and venom fractions. The murine renal cortex cells exhibited epithelial morphology and the majority showed smooth muscle actin determined by immune-staining. The cytotoxicity was evaluated by the tetrazolium colorimetric method. Cell viability was less for crude venom, followed by the hemorrhagic and neurotoxic fractions with a CT50 of 4.93, 18.41 and 50.22 µg/mL, respectively. The Vero cell cultures seemed to be more sensitive with a CT50 of 2.9 and 1.4 µg/mL for crude venom and the hemorrhagic peak, respectively. The results of this study show the potential of using cell culture system to evaluate venom toxicity.
Resumo:
This work presents an automatic calibration method for a vision based external underwater ground-truth positioning system. These systems are a relevant tool in benchmarking and assessing the quality of research in underwater robotics applications. A stereo vision system can in suitable environments such as test tanks or in clear water conditions provide accurate position with low cost and flexible operation. In this work we present a two step extrinsic camera parameter calibration procedure in order to reduce the setup time and provide accurate results. The proposed method uses a planar homography decomposition in order to determine the relative camera poses and the determination of vanishing points of detected lines in the image to obtain the global pose of the stereo rig in the reference frame. This method was applied to our external vision based ground-truth at the INESC TEC/Robotics test tank. Results are presented in comparison with an precise calibration performed using points obtained from an accurate 3D LIDAR modelling of the environment.
Resumo:
A competitividade no fabrico de componentes para a indústria automóvel é um factor-chave para o sucesso de qualquer empresa que queira permanecer neste sector de actividade. Atendendo a que o custo de mão-de-obra tem tendência a subir, e que a qualidade é muito mais difícil de assegurar quando os processos assentam essencialmente em produção manual, a automatização ganha cada vez maior relevo, permitindo uma maior produtividade e repetibilidade, assegurando simultaneamente níveis de qualidade superiores, o que contribui também para um incremento da produtividade ainda mais acentuado. Em Portugal, muitas empresas que trabalham para o sector automóvel já apostam fortemente na automatização de processos, e até na robotização. Esta é a única via para melhorar a competitividade e conseguir concorrer com países onde a mão-de-obra é bastante mais económica, ou com outros onde a automação está fortemente instalada. Este trabalho centrou-se na optimização de um equipamento destinado ao fabrico semiautomático de estruturas de assentamento dos estofos para automóveis. O equipamento original estava já fortemente automatizado, mas necessitava ainda de algumas operações manuais, as quais se resumiam a pouco mais do que transferência e agrupamento de subconjuntos. O trabalho teve que ter em conta todas as limitações impostas pelos sistemas já existentes, e ser realizável com o custo mais económico possível. Depois de vários estudos e propostas, o projecto foi implementado.
Resumo:
O pretexto da implementação de um Sistema de Gestão da Qualidade numa empresa de produção de fundos copados, constitui pretexto para provocar uma análise mais profunda e fundamentada do tema e objetivo para este projeto. Entender um conceito tão subjetivo como o de qualidade afigura-se como necessidade primária para o início da reflexão. Percorremos em seguida a história do conceito desde a Europa Medieval até à revolução na qualidade que acabaria por acontecer no Japão após a II Guerra Mundial. A qualidade como a entendemos hoje deve-se ainda a contributos de personalidades que identificaram vários métodos que surgiram ao longo do tempo e que foram melhorando o conceito, de entre as quais se referem três: William Deming, Joseph Moses Juran e Philip B. Crosby. Em seguida reflete-se acerca do impacto real da implementação da ISO 9000, recorrendo ao estudo de Olivier Boiral, que fornece uma aproximação bastante real dos benefícios da implementação de sistemas de gestão da qualidade. Ainda no segundo capítulo analisamos a importância do processo de certificação, concluindo que a tarefa extra de uma organização externa certificar o SGQ constitui indubitavelmente uma forma de manter o sistema rigoroso e disciplinado. No terceiro capítulo, “ISO 9001:2008 VERSUS ISO 9001:2015”, analisamos em detalhe as principais alterações da futura norma ISO 9001:2015 relativamente à iISO 9001:2008: introdução do “pensamento baseado no risco”; enfase dado à abordagem por processos; enfase dado à “gestão da mudança”; “gestão do conhecimento”; “direção estratégica”, integrando os sistemas de gestão e da qualidade; a determinação de que todas as normas que integram um sistema de gestão seguirão um novo formato, chamado “high-level structure” como definido no Anexo SL; e enfase ainda dado à consideração do feedback de todos os processos e stakeholders envolvidos. Seguidamente, no capítulo “Apresentação da “Empresa Lda””, apresenta-se a empresa alvo deste caso de estudo, uma indústria metalomecânica que fabrica fundos copados para o mercado nacional e internacional. Analisadas as principais alterações entre a atual e a futura norma, no capítulo “SGQ Proposto Assente na Futura Norma ISO 9001:2015” propõem-se alterações ao sistema já implementado anteriormente com base na aceitação da futura ISO 9001:2015 e alterações que esta prevê. Os processos e procedimentos que representem mais tempo e custo serão 6 identificados, assim como aqueles que poderão ser mais rapidamente adaptados para que o SGQ seja assim otimizado e mais adaptado aos recursos disponíveis. Para esta reflexão e desenvolvimento de uma nova estratégia recorre-se a vários instrumentos: estabelecem-se objetivos, efectua-se a análise SWOT, uma análise FMEA, a Análise de Gestão do Conhecimento e finalmente a Análise das Partes Interessadas. Em conjunto com as propostas de ações referidas nas análises anteriores descrevem-se de seguida as propostas de ação de intervenção nos fluxogramas. Os processos e procedimentos que aqui se destacam são aqueles que se consideram poderem constituir impacto eficaz e que vão ao encontro daquilo que é proposto na nova norma ISO 9001:2015, tendo em conta as principais alterações vistas anteriormente.
Resumo:
O elevado consumo de água associado à escassez deste recurso contribuiu para que alternativas de reutilização/reciclagem de água fossem estudadas que permitam diminuir o seu consumo e minimizar a dependência das indústrias. Monitorizar e avaliar os consumos de água, a nível industrial, é imprescindível para assegurar uma gestão sustentável dos recursos hídricos, sendo este o objetivo da presente dissertação. As alternativas encontradas na unidade industrial em estudo foram a substituição do equipamento sanitário e o aproveitamento do efluente tratado para operações de lavagem e/ou arrefecimento por contacto direto. A maioria do equipamento sanitário não é eficiente, tendo-se proposto a substituição desse sistema por um de menor consumo que permitirá uma poupança de 30 % no consumo de água, que corresponderá a 12 149,37 €/ano, sendo o retorno do investimento estimado em 3 meses. O efluente industrial na entrada da ETAR e nas diferentes etapas - tratamento primário de coagulação/floculação; tratamento secundário ou biológico em SBR; tratamento terciário de coagulação/floculação - foi caracterizado através da medição da temperatura, pH, oxigénio dissolvido e pela determinação da cor, turvação, sólidos suspensos totais (SST), azoto total, carência química de oxigénio (CQO), Carência Bioquímica de Oxigénio ao fim de 5 dias (CBO5) e razão CBO5/CQO. Esta caracterização permitiu avaliar o efluente industrial bruto que se caracteriza por um pH alcalino (8,3 ± 1,7); condutividade baixa (451 ± 200,2 μS/cm); elevada turvação (11 255 ± 8812,8 FTU); cor aparente (63 670 ± 42293,4 PtCo) e cor verdadeira (33 621 ± 19547,9 PtCo) elevadas; teores elevados de CQO (24 753 ± 11806,7 mg/L O2) SST (5 164 ± 3845,5 mg/L) e azoto total (718 mg/L) e um índice de biodegradabilidade baixo (razão CBO5/CQO de 1,4). Este estudo permitiu verificar que a eficiência global do tratamento do efluente foi 82 % na remoção da turvação, 83 % na remoção da cor aparente, 96 % na remoção da cor verdadeira, 85 % na remoção da CQO e 30 % na remoção dos SST. Quanto às eficiências de remoção associadas ao tratamento primário no que diz respeito à turvação, cor aparente, CQO e SST, apresentam valores inferiores aos referidos na literatura para o mesmo tipo de tratamento em efluentes similares. As eficiências de remoção obtidas no tratamento secundário são inferiores às do tratamento primário: turvação, cor aparente, CQO e SST, pelo que procurou-se otimizar a primeira etapa do processo de tratamento Neste estudo de otimização estudou-se a influência de cinco coagulantes – Sulfato de Alumínio, PAX XL – 10, PAX 18, cloreto de ferro e a conjugação de PAX 18 com sulfato de ferro - e seis floculantes – Superfloc A 150, Superfloc A 130, PA 1020, Ambifloc 560, Ambifloc C58 e Rifloc 54 - no tratamento físico-químico do efluente. O PAX 18 e o Ambifloc 560 UUJ foram os que apresentaram as mais elevadas eficiências de remoção (99,85 % na cor, 99,87 % na turvação, 90,12 % na CQO e 99,87 % nos SST). O custo associado a este tratamento é de 1,03 €/m3. Pela comparação com os critérios de qualidade no guia técnico ERSAR, apenas o parâmetro da CQO excede o valor, contudo o valor obtido permite diminuir os custos associados a um tratamento posterior para remoção da CQO remanescente no efluente residual tratado.
Resumo:
Desde sempre o Homem procurou automatizar tarefas repetitivas. Tanto na indústria como no sector doméstico ou de comércio estão constantemente a surgir novos equipamentos procurando aumentar o nível de automação de diversas tarefas. A necessidade de empresas criadoras de produtos inovadores se manterem concorrenciais obrigou à adopção de métodos de projecto e planeamento mais estruturados e eficientes que eliminem os desperdícios tanto de material como de tempo. Diversas construções em termos orçamentais e o aumento da procura de produtos de alta qualidade a baixo custo deu origem a um novo tipo de programas, os programas de simulação virtual. Tal como na indústria, também na investigação nas Instituições de Ensino Superior se procuram adoptar os métodos de trabalho mais eficientes possíveis. Uma parte dos programas de simulação robótica utilizados hoje em dia na investigação no Instituto Superior de Engenharia do Porto estão concebidos em linguagem C. Embora esta linguagem seja extremamente capaz, existem métodos mais adequados de simulação que aceleram o processo de modelação permitindo a visualização do movimento e simulação de diversas situações potencialmente criticas sem existir a necessidade de construção de um protótipo funcional do robô. Durante o último ano, este projecto permitiu construir um modelo de um robô quadrúpede num programa de simulação virtual chamado Simmechanics™. Embora haja já algum trabalho desenvolvido nesta área, constatou-se que a informação existente possuía algumas lacunas. Com o trabalho desenvolvido preparou-se esta dissertação que pretende clarificar algumas questões que surgem na modelação de um robô. Neste documento explica-se como modelar um robô de corpo flexível, modelar as pernas e as respectivas juntas da anca e do joelho assim como também se apresenta a modelação de um contacto com o solo recorrendo a um modelo descrito na literatura. Este documento foi escrito a pensar no leitor, procurando-se explicar de forma simples mas concisa os diversos passos necessários para construir um modelo virtual de um robô. O autor espera, desta forma, ajudar futuros colegas que pretendam trabalhar com o Simmechanics™ a mais facilmente se integrarem com o programa aumentando desta forma o declive da curva de aprendizagem e permitindo um maior aproveitamento desta ferramenta.