15 resultados para Practical Error Estimator
em Instituto Politécnico do Porto, Portugal
Resumo:
Electricity markets are complex environments, involving a large number of different entities, playing in a dynamic scene to obtain the best advantages and profits. MASCEM is a multi-agent electricity market simu-lator to model market players and simulate their operation in the market. Market players are entities with specific characteristics and objectives, making their decisions and interacting with other players. MASCEM pro-vides several dynamic strategies for agents’ behaviour. This paper presents a method that aims to provide market players strategic bidding capabilities, allowing them to obtain the higher possible gains out of the market. This method uses an auxiliary forecasting tool, e.g. an Artificial Neural Net-work, to predict the electricity market prices, and analyses its forecasting error patterns. Through the recognition of such patterns occurrence, the method predicts the expected error for the next forecast, and uses it to adapt the actual forecast. The goal is to approximate the forecast to the real value, reducing the forecasting error.
Resumo:
This essay suggests that the intersubjectivity in translation should be given priority because different stages of the translation activity have different subjects, and presents a practical intersubjective ethics of translation based on an interpretation of the intersubjective relations connected with translation activities in a perspective of game theory in the hope that it can equip us with better explanations of the translator’s calculations or considerations in the professional practice.
Resumo:
Introduction: Paper and thin layer chromatography methods are frequently used in Classic Nuclear Medicine for the determination of radiochemical purity (RCP) on radiopharmaceutical preparations. An aliquot of the radiopharmaceutical to be tested is spotted at the origin of a chromatographic strip (stationary phase), which in turn is placed in a chromatographic chamber in order to separate and quantify radiochemical species present in the radiopharmaceutical preparation. There are several methods for the RCP measurement, based on the use of equipment as dose calibrators, well scintillation counters, radiochromatografic scanners and gamma cameras. The purpose of this study was to compare these quantification methods for the determination of RCP. Material and Methods: 99mTc-Tetrofosmin and 99mTc-HDP are the radiopharmaceuticals chosen to serve as the basis for this study. For the determination of RCP of 99mTc-Tetrofosmin we used ITLC-SG (2.5 x 10 cm) and 2-butanone (99mTc-tetrofosmin Rf = 0.55, 99mTcO4- Rf = 1.0, other labeled impurities 99mTc-RH RF = 0.0). For the determination of RCP of 99mTc-HDP, Whatman 31ET and acetone was used (99mTc-HDP Rf = 0.0, 99mTcO4- Rf = 1.0, other labeled impurities RF = 0.0). After the development of the solvent front, the strips were allowed to dry and then imaged on the gamma camera (256x256 matrix; zoom 2; LEHR parallel-hole collimator; 5-minute image) and on the radiochromatogram scanner. Then, strips were cut in Rf 0.8 in the case of 99mTc-tetrofosmin and Rf 0.5 in the case of 99mTc-HDP. The resultant pieces were smashed in an assay tube (to minimize the effect of counting geometry) and counted in the dose calibrator and in the well scintillation counter (during 1 minute). The RCP was calculated using the formula: % 99mTc-Complex = [(99mTc-Complex) / (Total amount of 99mTc-labeled species)] x 100. Statistical analysis was done using the test of hypotheses for the difference between means in independent samples. Results:The gamma camera based method demonstrated higher operator-dependency (especially concerning the drawing of the ROIs) and the measures obtained using the dose calibrator are very sensitive to the amount of activity spotted in the chromatographic strip, so the use of a minimum of 3.7 MBq activity is essential to minimize quantification errors. Radiochromatographic scanner and well scintillation counter showed concordant results and demonstrated the higher level of precision. Conclusions: Radiochromatographic scanners and well scintillation counters based methods demonstrate to be the most accurate and less operator-dependant methods.
Resumo:
Aquando da definição de um layout por fluxo de produto, ou linha de produção, é necessário proceder-se à melhor selecção de combinações de tarefas a serem executadas em cada estação / posto de trabalho para que o trabalho seja executado numa sequência exequível e sejam necessárias quantidades de tempo aproximadamente iguais em cada estação / posto de trabalho. Este processo é chamado de balanceamento da linha de produção. Verifica-se que as estações de trabalho e equipamentos podem ser combinados de muitas maneiras diferentes; daí que a necessidade de efectuar o balanceamento das linhas de produção implique a distribuição de actividades sequenciais por postos de trabalho de modo a permitir uma elevada utilização de trabalho e de equipamentos e a minimizar o tempo de vazio. Os problemas de balanceamento de linhas são tipicamente problemas complexos de tratar, devido ao elevado número de combinações possíveis. Entre os métodos utilizados para resolver estes problemas encontram-se métodos de tentativa e erro, métodos heurísticos, métodos computacionais de avaliação de diferentes opções até se encontrar uma boa solução e métodos de optimização. O objectivo deste trabalho passou pelo desenvolvimento de uma ferramenta computacional para efectuar o balanceamento de linhas de produção recorrendo a algoritmos genéticos. Foi desenvolvida uma aplicação que implementa dois algoritmos genéticos, um primeiro que obtém soluções para o problema e um segundo que optimiza essas soluções, associada a uma interface gráfica em C# que permite a inserção do problema e a visualização de resultados. Obtiveram-se resultados exequíveis demonstrando vantagens em relação aos métodos heurísticos, pois é possível obter-se mais do que uma solução. Além disso, para problemas complexos torna-se mais prático o uso da aplicação desenvolvida. No entanto, esta aplicação permite no máximo seis precedências por cada operação e resultados com o máximo de nove estações de trabalho.
Resumo:
A crise económica global que se faz sentir leva a que surja uma necessidade de aumentar a competitividade das empresas, através da melhoria de performance dos seus colaboradores. Nesse sentido, Lean Manufacturing é uma área que merece a atenção das empresas e dos seus colaboradores, uma vez que os seus principais objectivos são o aumento da produtividade, a redução dos desperdícios e a optimização dos recursos disponíveis. Uma ferramenta do Lean que merece especial destaque é o Método 5S, que permite aumentar a produtividade através do aumento da organização do posto de trabalho. Uma vez que usar postos de trabalho a mais, de modo a que os colaboradores pratiquem e aprendam a aplicar as regras do 5S, fica dispendioso em tempo de trabalho e custos acrescidos pela paragem da linha produção, surge a necessidade de criação de um Jogo Sério que ajude na aprendizagem destes temas. Um breve estudo do mercado revelou que esta necessidade não está a ser devidamente respondida. Existem algumas entidades que se dedicam ao ensino e partilha deste tipo de conhecimentos, sendo poucas as que têm ferramentas digitais disponíveis. Esta dissertação propõe um Jogo Sério que pretende dar resposta a esta necessidade, permitindo pôr em prática o Método 5S, servindo ainda como ferramenta motivadora, para que o colaborador aprofunde o seu conhecimento na matéria. Esta abordagem prática encoraja o jogador a aprender por tentativa e erro. Informações mostradas ao longo do jogo permitem uma aprendizagem sem haver uma sobrecarga cognitiva. A avaliação do jogo, realizada por um grupo de alunos que frequentam o Mestrado em Engenharia Mecânica, demonstrou que a nossa abordagem é eficiente e resulta na aprendizagem dos conceitos 5S.
Resumo:
For integer-order systems, there are well-known practical rules for RL sketching. Nevertheless, these rules cannot be directly applied to fractional-order (FO) systems. Besides, the existing literature on this topic is scarce and exclusively focused on commensurate systems, usually expressed as the ratio of two noninteger polynomials. The practical rules derived for those do not apply to other symbolic expressions, namely, to transfer functions expressed as the ratio of FO zeros and poles. However, this is an important case as it is an extension of the classical integer-order problem usually addressed by control engineers. Extending the RL practical sketching rules to such FO systems will contribute to decrease the lack of intuition about the corresponding system dynamics. This paper generalises several RL practical sketching rules to transfer functions specified as the ratio of FO zeros and poles. The subject is presented in a didactic perspective, being the rules applied to several examples.
Resumo:
This study deals with the problem of how to collect genuine and useful data about science classroom practices, and preserving the complex and holistic nature of teaching and learning. Additionally, we were looking for an instrument that would allow comparability and verifiability for teaching and research purposes. Given the multimodality of teaching and learning processes, we developed the multimodal narrative (MN), which describes what happens during a task and incorporates data such as examples of students’ work.
Resumo:
Consider the problem of scheduling a set of sporadic tasks on a multiprocessor system to meet deadlines using a tasksplitting scheduling algorithm. Task-splitting (also called semipartitioning) scheduling algorithms assign most tasks to just one processor but a few tasks are assigned to two or more processors, and they are dispatched in a way that ensures that a task never executes on two or more processors simultaneously. A certain type of task-splitting algorithms, called slot-based task-splitting, is of particular interest because of its ability to schedule tasks at high processor utilizations. We present a new schedulability analysis for slot-based task-splitting scheduling algorithms that takes the overhead into account and also a new task assignment algorithm.
Resumo:
Radio Link Quality Estimation (LQE) is a fundamental building block for Wireless Sensor Networks, namely for a reliable deployment, resource management and routing. Existing LQEs (e.g. PRR, ETX, Fourbit, and LQI ) are based on a single link property, thus leading to inaccurate estimation. In this paper, we propose F-LQE, that estimates link quality on the basis of four link quality properties: packet delivery, asymmetry, stability, and channel quality. Each of these properties is defined in linguistic terms, the natural language of Fuzzy Logic. The overall quality of the link is specified as a fuzzy rule whose evaluation returns the membership of the link in the fuzzy subset of good links. Values of the membership function are smoothed using EWMA filter to improve stability. An extensive experimental analysis shows that F-LQE outperforms existing estimators.
Resumo:
The use of bit error models in communication simulation has been widely studied. In this technical report we present three models: the Independent Channel Model; the Gilbert-Elliot Model and the Burst-Error Periodic Model.
Resumo:
STRIPPING is a software application developed for the automatic design of a randomly packing column where the transfer of volatile organic compounds (VOCs) from water to air can be performed and to simulate it’s behaviour in a steady-state. This software completely purges any need of experimental work for the selection of diameter of the column, and allows a choice, a priori, of the most convenient hydraulic regime for this type of operation. It also allows the operator to choose the model used for the calculation of some parameters, namely between the Eckert/Robbins model and the Billet model for estimating the pressure drop of the gaseous phase, and between the Billet and Onda/Djebbar’s models for the mass transfer. Illustrations of the graphical interface offered are presented.
Resumo:
Among aminoacidopathies, phenylketonuria (PKU) is the most prevalent one. Early diagnosis in the neonatal period with a prompt nutritional therapy (low natural-protein and phenylalanine diet, supplemented with phenylalanine-free amino acid mixtures and special low-protein foods) remains the mainstay of the treatment. Data considering nutrient contents of cooked dishes is lacking. In this study, fourteen dishes specifically prepared for PKU individuals were analysed, regarding the lipid profile and iron and zinc contents. These dishes are poor sources of essential nutrients like Fe, Zn or n-3 fatty acids, reinforcing the need for adequate supplementation to cover individual patients’ needs. This study can contribute to a more accurate adjustment of PKU diets and supplementation in order to prevent eventual nutritional deficiencies. This study contributes to a better understanding of nutrient intake from PKU patients’ meals, showing the need for dietary supplementation.
Resumo:
Atualmente a energia é considerada um vetor estratégico nas diversas organizações. Assim sendo, a gestão e a utilização racional da energia são consideradas instrumentos fundamentais para a redução dos consumos associados aos processos de produção do sector industrial. As ações de gestão energética não deverão ficar pela fase do projeto das instalações e dos meios de produção, mas sim acompanhar a atividade da Empresa. A gestão da energia deve ser sustentada com base na realização regular de diagnósticos energéticos às instalações consumidoras e concretizada através de planos de atuação e de investimento que apresentem como principal objetivo a promoção da eficiência energética, conduzindo assim à redução dos respetivos consumos e, consequentemente, à redução da fatura energética. Neste contexto, a utilização de ferramentas de apoio à gestão de energia promovem um consumo energético mais racional, ou seja, promovem a eficiência energética e é neste sentido que se insere este trabalho. O presente trabalho foi desenvolvido na Empresa RAR Açúcar e apresentou como principais objetivos: a reformulação do Sistema de Gestão de Consumos de Energia da Empresa, a criação de um modelo quantitativo que permitisse ao Gestor de Energia prever os consumos anuais de água, fuelóleo e eletricidade da Refinaria e a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado. A reformulação do respetivo Sistema de Gestão de Consumos resultou de um conjunto de etapas. Numa primeira fase foi necessário efetuar uma caraterização e uma análise do atual Sistema de Gestão de Consumos da Empresa, sistema composto por um conjunto de sete ficheiros de cálculo do programa Microsoft Excel©. Terminada a análise, selecionada a informação pertinente e propostas todas as melhorias a introduzir nos ficheiros, procedeu-se à reformulação do respetivo SGE, reduzindo-se o conjunto de ficheiros de cálculo para apenas dois ficheiros, um onde serão efetuados e visualizados todos os registos e outro onde serão realizados os cálculos necessários para o controlo energético da Empresa. O novo Sistema de Gestão de Consumos de Energia será implementado no início do ano de 2015. Relativamente às alterações propostas para as folhas de registos manuais, estas já foram implementadas pela Empresa. Esta aplicação prática mostrou-se bastante eficiente uma vez que permitiu grandes melhorias processuais nomeadamente, menores tempos de preenchimento das mesmas e um encurtamento das rotas efetuadas diariamente pelos operadores. Através do levantamento efetuado aos diversos contadores foi possível identificar todas as áreas onde será necessário a sua instalação e a substituição de todos os contadores avariados, permitindo deste modo uma contabilização mais precisa de todos os consumos da Empresa. Com esta reestruturação o Sistema de Gestão de Consumos tornou-se mais dinâmico, mais claro e, principalmente, mais eficiente. Para a criação do modelo de previsão de consumos da Empresa foi necessário efetuar-se um levantamento dos consumos históricos de água, eletricidade, fuelóleo e produção de açúcar de dois anos. Após este levantamento determinaram-se os consumos específicos de água, fuelóleo e eletricidade diários (para cada semana dos dois anos) e procedeu-se à caracterização destes consumos por tipo de dia. Efetuada a caracterização definiu-se para cada tipo de dia um consumo específico médio com base nos dois anos. O modelo de previsão de consumos foi criado com base nos consumos específicos médios dos dois anos correspondentes a cada tipo de dia. Procedeu-se por fim à verificação do modelo, comparando-se os consumos obtidos através do modelo (consumos previstos) com os consumos reais de cada ano. Para o ano de 2012 o modelo apresenta um desvio de 6% na previsão da água, 12% na previsão da eletricidade e de 6% na previsão do fuelóleo. Em relação ao ano de 2013, o modelo apresenta um erro de 1% para a previsão dos consumos de água, 8% para o fuelóleo e de 1% para a eletricidade. Este modelo permitirá efetuar contratos de aquisição de energia elétrica com maior rigor o que conduzirá a vantagens na sua negociação e consequentemente numa redução dos custos resultantes da aquisição da mesma. Permitirá também uma adequação dos fluxos de tesouraria à necessidade reais da Empresa, resultante de um modelo de previsão mais rigoroso e que se traduz numa mais-valia financeira para a mesma. Foi também proposto a elaboração de um plano de consumos para o ano de 2014 a partir do modelo criado em função da produção prevista para esse mesmo ano. O modelo apresenta um desvio de 24% na previsão da água, 0% na previsão da eletricidade e de 28% na previsão do fuelóleo.
Resumo:
Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.