930 resultados para Calibração automática
Resumo:
Na presente dissertação é proposto o desenvolvimento de um novo sistema de calibração de roscados de exteriores através de visão computacional. A calibração de roscados de exterior consiste na obtenção do diâmetro efectivo, do diâmetro exterior e do passo, e no cálculo da incerteza expandida correspondente. Actualmente, a calibração é efectuada com o auxílio de máquinas universais (SIP), na qual o diâmetro efectivo é obtido através de um modelo matemático, pois não se consegue obtê-lo directamente. O sistema de calibração por visão computacional tem como objectivo obter-se o diâmetro efectivo directamente, assim como as restantes características. A vantagem deste novo sistema será para roscados com dimensões inferiores a 2 mm, que não se conseguem medir utilizando a SIP. A desvantagem é referente a diâmetros superiores a 2 mm, devido à resolução obtida com a câmara utilizada. Este sistema foi validado por comparação com a calibração utilizando como equipamento calibrador a SIP. Ao longo da dissertação irão ser explicados todos os passos dados para a calibração de roscados de exterior.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.
Resumo:
Dissertação para obtenção do Grau de Mestre em Mestrado Integrado em Engenharia Mecânica
Resumo:
A crescente incorporação das evoluções tecnológicas nos equipamentos médicos modernos, além de os tornar mais compactos e precisos, proporciona igualmente ganhos de outros benefícios importantes, especialmente ao nível da eficiência das terapias prescritas aos pacientes. Os sofisticados ventiladores pulmonares de cuidados intensivos do presente espelham perfeitamente esta realidade e por isso necessitam de procedimentos técnicos de verificação metrológica – calibrações, também eles mais exatos e rastreáveis, de modo a fornecerem informações corretas sobre se o estado de funcionamento de um determinado ventilador cumpre ou não as tolerâncias declaradas pelo seu fabricante. Através da presente dissertação pretendeu-se desenvolver um procedimento técnico de calibração dos ventiladores de cuidados intensivos tendo-se estudado, para esta finalidade, os equipamentos de calibração específicos disponíveis no mercado, a normalização e o enquadramento regulamentar do controlo metrológico aplicáveis, bem como o princípio de funcionamento do ventilador pulmonar e a evolução da ventilação mecânica ocorrida. No domínio da abordagem efetuada sobre o âmbito da metrologia, implementou-se a determinação das incertezas dos resultados das calibrações efetuadas pelo procedimento técnico desenvolvido, de acordo com a metodologia constante do GUM1. Considerando ainda os défices significativos de conhecimento da metrologia e da prática do controlo metrológico no setor da saúde, a par dos riscos inerentes para os próprios pacientes, procura-se contribuir com este trabalho, de uma forma transversal e ampla, para uma maior consciencialização, quer dos profissionais de saúde, quer dos gestores envolvidos, para a relevância da realização das calibrações periódicas dos complexos equipamentos de suporte de vida que são os ventiladores pulmonares de cuidados intensivos.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.
Automatização do sistema de alinhamento utilizado na calibração de hidrómetros pelo método de Cuckow
Resumo:
A evolução científica e tecnológica que se fez sentir nas últimas décadas criou novos desafios relacionados com uma crescente complexidade dos processos de calibração, bem como a exigência e o rigor dos métodos utilizados. A presente dissertação foi realizada no âmbito de um estágio curricular no Laboratório de Propriedades dos Líquidos do Departamento de Metrologia do Instituto Português da Qualidade (IPQ). A temática do estudo resulta da procura continuada, por parte desta entidade, pelo aperfeiçoamento das metodologias de calibração. Devido à ampla utilização, em diferentes áreas da indústria e serviços, de hidrómetros, a calibração destes tornou-se uma atividade de relevo no Departamento de Metrologia do IPQ. O foco da presente dissertação prendeu-se com a melhoria do processo de calibração de hidrómetros, segundo o método de Cuckow, mais especificamente, com a necessidade de diminuir a componente da incerteza proveniente do operador no alinhamento do traço da escala a calibrar com a superfície do líquido de referência no método de calibração de hidrómetros por pesagem hidrostática. Com este objetivo, foi desenvolvido e validado um automatismo, constituído por uma câmara, um servomotor e um software de controlo. O objetivo principal do trabalho foi alcançado com a implementação do automatismo, permitindo uma redução, na ordem de duas a quatro vezes, da incerteza final do método de calibração de hidrómetros. Durante o desenvolvimento do trabalho, surgiram objetivos paralelos ao projeto inicial, nomeadamente, a validação da folha de cálculo utilizada no IPQ para calibração de hidrómetros, assim como um estudo referente á validação da medição manual da divisão de escala dos hidrómetros. O referido sistema de automatização encontra-se implementado e plenamente integrado nas atividades correntes do laboratório.
Resumo:
De forma a melhorar a precisão dos resultados obtidos com instrumentos doseadores de líquidos utilizados em ambiente clínico, foi submetido e aprovado um projeto internacional denominado Metrology for Drug Delivery (MeDD), financiado pela União Europeia, em que o Instituto Português da Qualidade (IPQ) é um dos sete participantes. Ao nível nacional, todo o projeto foi desenvolvido no Laboratório de Volume (LVO) do IPQ, em parceria com o Departamento de Engenharia Mecânica e Industrial (DEMI) da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa (FCT/UNL), a B.Braun Portugal e o Hospital Garcia de Orta (HGO). A presente dissertação centra-se na elaboração de um procedimento de calibração de sistemas doseadores de fluidos, usando como ponto de partida um sistema padrão de micro caudal desenvolvido anteriormente pelo LVO em colaboração com a FCT-UNL/DEMI. Nesta dissertação são apresentados estudos de desempenho realizados em sistemas utilizados no hospital. Os instrumentos doseadores de fluidos mais usuais nos hospitais são as seringas perfusoras e as bombas peristálticas, que têm como função fornecer os fluidos necessários para hidratar, nutrir ou administrar fármacos. Com o objetivo de estudar o desempenho destes equipamentos em diferentes situações, tais como a influência da administração de fluidos mais viscosos em comparação com água, o tempo de resposta dos instrumentos e o impacto dos acessórios na linha de perfusão, realizaram-se diversos ensaios. Através dos ensaios realizados foi possível determinar o erro e a incerteza associada a cada equipamento para cada experiência realizada. A maioria dos resultados obtidos com os sistemas doseadores de fluidos permitiram verificar que os valores da incerteza dos caudais eram inferiores ao erro máximo admissível indicado pelo fabricante e serviram de base para a elaboração de um procedimento técnico.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
Tesis (Maestría en Ciencias en Ingeniería de Sistemas) UANL, 2012.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
El resumen es copia del publicado con el artículo
Resumo:
Desde la primera utilización del término empatía en Psicología, a principios del siglo XX, su uso se ha extendido por las distintas ramas de esta ciencia, lo que ha dado lugar a la proliferación de teorías y categorías concebidas para explicar su funcionamiento o describir sus componentes. En el presente artículo se revisan algunas discusiones sobre los alcances y los límites del concepto de empatía y se intenta aclarar las particularidades y las relaciones entre términos que conviven en la investigación sobre el tema: contagio emocional, empatía emocional, toma de perspectiva, teoría de la mente y mentalización. Se propone además una integración de este campo conceptual en un esquema amplio, al buscar dar cuenta de la complejidad del constructo de Empatía.
Resumo:
Promover la indemnización automática por parte del Estado paro los casos de Preclusión de la investigación, Cesación de procedimiento y sentencia absolutoria por la privación injusta de la libertad a un inocente.
Resumo:
Resumen del autor en catalán