47 resultados para TERNEROS - ENFERMEDADES - DIAGNÓSTICO - MAGDALENA MEDIO
Resumo:
Após o enquadramento da canoagem, como modalidade Olímpica, verificou-se um aumento significativo de estudos e pesquisas acerca da biomecânica da modalidade, o que contribuiu para uma diminuição dos tempos na competição. Contudo poucos foram os que se focaram nas forças desenvolvidas e aplicadas ao caiaque através do finca-pés, criado assim oportunidade de desenvolvimento de dispositivos para a medição das mesmas. Assim, o objectivo primordial é desenvolver um sistema experimental capaz de quantificar as forças geradas em cada um dos lados do finca-pés (esquerdo e direito). Este, deverá não só ser passível de se utilizar em caiaque ergómetro como também num caiaque de pista, permitido avaliar as forças aplicadas durante o ciclo de pagaiada, tanto em compressão como em tracção. A sua concepção baseou-se num modelo de finca-pés já existente, tornando-o compatível com os caiaques de competição mais comercializados, e permitindo que no futuro se possa utilizar na água, bastando para isso apenas possuir um caiaque e embarcar o sistema de medição. Este sistema experimental foi testado em caiaque ergómetro por 7 (sete) sujeitos com níveis distintos: seis homens (um atleta olímpico medalhado e cinco de nível nacional) e uma mulher (de nível de selecção Portuguesa) que, entre outros, realizaram um plano definido por 60s a uma frequência de 75 pagaiadas por minuto, seguido de uma intensa mudança de ritmo e força (Sprint). Após análise dos dados obtidos em cada um dos diferentes sujeitos, conseguimos identificar algumas das suas características, tais como: esforço assimétrico dos membros inferiores; utilização de forma heterogénea da fita do finca-pés; diferença de forças máximas aplicadas entre atletas (Ex.: para um atleta olímpico as forças medidas (Min; Max): Pé Esquerdo (- 444; 1087) N e Pé Direito (- 476; 1068) N); etc. Os resultados não só são bastante promissores como também são motivantes e congruentes com estudos anteriores, nomeadamente Begon et al. 2008 e Sturm 2010 e 2012. Finalmente, consegue-se afirmar, com segurança, que foram alcançados os objectivos propostos com a concepção deste dispositivo de medição de forças. Este permite caracterizar os esforços desenvolvidos no finca-pés por cada membro inferior, com ou sem a fita de suporte, possibilitando aos treinadores e atletas uma visão, para muitos desconhecida, das forças transmitidas e das suas assimetrias. No final, este conhecimento permitirá aos atletas melhorar o seu desempenho desportivo bem como facilitar a gestão desportiva, com base nos principais princípios mecânicos inerentes ao movimento dos atletas desde desporto Olímpico.
Resumo:
O cancro é uma das principais causas de morte em todo o mundo. Entre as mulheres, o cancro da mama é o mais frequente. A deteção precoce do cancro é de extrema importância na medida em que pode aumentar as possibilidades de cura dos pacientes e contribuir para a diminuição da taxa de mortalidade desta doença. Um método que tem contribuído para a deteção precoce do cancro é a análise de biomarcadores. Biomarcadores associados ao cancro da mama, como o Recetor 2 do Fator de Crescimento Epidérmico Humano (HER2) e o Antigénio Carbohidratado 15-3 (CA 15-3), podem ser detetados através de dispositivos como os biossensores. Neste trabalho foram desenvolvidos dois imunossensores eletroquímicos para a análise de HER2 e CA 15-3. Para ambos os sensores foram utilizados, como transdutores, elétrodos serigrafados de carbono. A superfície destes transdutores foi nanoestruturada com nanopartículas de ouro. Foram realizados imunoensaios não-competitivos (do tipo sandwich) em ambos os imunossensores, cuja estratégia consistiu na (i) imobilização do respetivo anticorpo de captura na superfície nanoestruturada dos elétrodos, (ii) bloqueio da superfície com caseína, (iii) incubação com uma mistura do analito (HER2 ou CA 15-3) e o respetivo anticorpo de deteção biotinilado, (iv) adição de estreptavidina conjugada com fosfatase alcalina (S-AP; a AP foi utilizada como marcador enzimático), (v) adição de uma mistura do substrato enzimático (3-indoxil fosfato) e nitrato de prata, e (vi) deteção do sinal analítico através da redissolução anódica, por voltametria de varrimento linear, da prata depositada enzimaticamente. Com as condições experimentais otimizadas, foi estabelecida a curva de calibração para a análise de HER2 em soro, entre 15 e 100 ng/mL, obtendo-se um limite de deteção de 4,4 ng/mL. Para o CA 15-3 a curva de calibração (em solução aquosa) foi estabelecida entre 15 e 250 U/mL, obtendo-se um limite de deteção de 37,5 U/mL. Tendo em conta o valor limite (cutoff value) estabelecido para o HER2 (15 ng/mL) pode-se comprovar a possível utilidade do imunossensor desenvolvido para o diagnóstico precoce e descentralizado do cancro da mama. No caso do CA 15-3 serão necessários estudos adicionais para se poder avaliar a utilidade do imunossensor para o diagnóstico do cancro da mama.
Resumo:
Os motores de indução trifásicos são usados na maioria dos sistemas eletromecânicos, pelo que a sua manutenção reveste-se de enorme importância. A monitorização contínua dos equipamentos é o elemento chave dos atuais sistemas de manutenção condicionada. A análise espectral da corrente absorvida pelo motor está muito implantada na indústria, mas apresenta várias limitações. Diversos métodos de deteção e diagnóstico de avarias têm sido desenvolvidos, baseados nas múltiplas grandezas que caracterizam o funcionamento do motor. A análise no domínio das frequências, com recurso a técnicas de processamento digital de sinal, tem sido bastante explorada. Este artigo pretende focar-se nas principais causas e métodos de diagnóstico de avarias no estator e rotor dos motores de indução.
Resumo:
Neste trabalho foi desenvolvido um estudo detalhado dos equipamentos de imagiologia médica, que recorrem ao uso de radiação-X, bem como da ressonância magnética. No seguimento deste estudo foram realizadas diversas atividades com equipamentos reais, desde instalações, reparações, manutenções, até ao seu desmantelamento. Este tipo de atividade permitiu ter uma melhor perceção do funcionamento de cada equipamento e o tipo de trabalho que é realizado por um engenheiro eletrotécnico na PHILIPS no sector healthcare. Durante estas atividades foi possível fazer um estudo da qualidade de imagem, em termos de fatores geométricos, em que foi estudada a distorção, a ampliação e a penumbra de uma imagem. Todos estes parâmetros foram alvos de estudo de forma a poder obter imagens com grande qualidade, mas sem que seja comprometida a saúde do doente, devido à elevada exposição de radiação que corpo humano pode absorver. Este estudo tem como intuito perceber como é que a variação de certos parâmetros irá alterar a qualidade da imagem. Desta forma pretende-se perceber como podem ser calibrados os equipamentos de diagnóstico por imagem, para que o técnico de diagnóstico e terapêutica apenas tenha de indicar qual a parte do corpo humano a radiografar, sendo que a máquina se coloca automaticamente nos parâmetros pré-definidos sem qualquer intervenção humana.
Resumo:
Na sociedade atual, a preocupação com o ambiente, por um lado, e com o conforto e a segurança, por outro, faz com que a sustentabilidade energética se assuma como uma forma de intervenção adequada às exigências de qualidade de vida e à eficiência no âmbito da economia. Nesta conformidade, é incontornável a mais-valia do Smart Panel, um quadro elétrico inteligente criado pela Schneider-Electric com vista à consecução daqueles desideratos. Iremos abordar, neste artigo, a gama de produtos que perfazem esta tecnologia, fazendo uma breve descrição de cada um deles, expondo de seguida um exemplo de aplicação desta tecnologia. Numa fase posterior apresentaremos as vantagens do Smart Panel face à tecnologia tradicional (até hoje a mais comum) no que respeita ao controlo de um quadro elétrico, Sistema de Gestão Técnica Centralizada.
Resumo:
Cada vez mais a indústria tem vindo a sofrer algumas mudanças no seu processo produtivo. Hoje, mais que nunca, é preciso garantir que as instalações produtivas sejam as mais eficientes possíveis, procurando a racionalização da energia com um decrescimento dos custos. Deste modo o objectivo desta dissertação é o diagnóstico energético na fábrica de pneus e sugestões de melhoria na empresa CNB/CAMAC. A realização de um diagnóstico energético, para a detecção de desperdícios de energia tem sido amplamente utilizada. A optimização irá prospectar potenciais de mudanças e aplicação de tecnologias de eficiência energética. Pretende-se deste modo travar o consumo energético sem que seja afectada a produção, já que a empresa é considerada consumidora intensiva de energia. Na empresa CNB/CAMAC há consumo de fuelóleo, gasóleo, vapor e energia eléctrica, sendo o vapor a forma de energia mais consumida (36,1%) seguido da energia eléctrica (33,8%), fuelóleo (29,9) e gasóleo (0,3%). O levantamento energético permitiu estudar a influência de algumas variáveis, nos consumos anuais da energia, e assim apresentar propostas de melhoria. Uma das propostas analisadas foi a possibilidade de efectuar um isolamento térmico a algumas válvulas no equipamento de produção e distribuição de vapor. Este isolamento conduziria a uma poupança de 33.540 kWh/ano. Também se propôs o isolamento dos tubos de transporte de vapor no sector da vulcanização o que geraria uma poupança de 549.826 kWh/ano. Sugere-se a implementação de um economizador na caldeira nº1 uma vez que a temperatura média dos gases de chaminé se situa á volta dos 311ºC. Uma vez que existe a pré instalação de um sistema de cogeração, sugere-se que este seja finalizado. Propôs-se a implementação de balastros electrónicos, que conduziria a uma diminuição em energia eléctrica de 33.5877 kWh/ano. Também se propõe a eliminação das fugas de ar na rede de distribuição do ar comprimido poupando assim 12,96kW/h.
Resumo:
O consumo de energia de forma irracional acarreta desvantagens a nível económico para o consumidor e problemas ambientais para toda a sociedade, como a escassez de recursos naturais e o aumento da poluição. Neste contexto, a otimização energética na indústria, e em particular no setor das borrachas, é indispensável de forma a utilizar racionalmente a energia e assim contribuir para a viabilidade das empresas. Este trabalho, efetuado na Flexocol - Fábrica de Artefactos de Borracha, Lda., teve como principal objetivo efetuar um levantamento energético à unidade fabril e propor alternativas que permitissem a redução do consumo de energia elétrica. Foi ainda realizado um estudo sobre a possibilidade de substituir o n-hexano, solvente utilizado na limpeza dos moldes, por um solvente mais adequado. O levantamento energético efetuado permitiu identificar o consumo das utilidades existentes na Flexocol. Esta empresa consome gasóleo e energia elétrica, sendo esta última, a forma de energia mais consumida correspondendo a 96%. O consumo global de energia é cerca 151 tep anuais, inferior a 500 tep/ano, ou seja é considerada uma empresa não consumidora intensiva de energia. Com base neste levantamento determinou-se os indicadores de consumo específico de energia e da intensidade carbónica, 2,73 tep/ ton e 1684,5 kg CO2/tep. A análise do consumo de energia elétrica dos diferentes equipamentos permitiu verificar que o setor que mais consome energia elétrica é a Vulcanização com 45,8%, seguido do setor da Mistura e Serralharia com 27,5% e 26,7%, respetivamente. O sistema de iluminação nos vários setores foi também alvo de estudo e permitiu identificar a Vulcanização como o setor com mais consumo e o da Mistura como o que menos consome. O estudo das variáveis anteriormente referidas permitiu apresentar algumas propostas de melhoria. Uma das propostas analisada foi implementação de condensadores no quadro parcial de forma a diminuir a energia reativa. Com esta medida prevê-se uma poupança de 5631 €/ano e um retorno de investimento de 0,045 anos. Foi também analisada relativamente à iluminação a possibilidade de instalação de balastros eletrónicos que conduziria a uma poupança na energia elétrica de cerca 7072 kWh/ano, mas com um retorno de investimento desfavorável. Por último estudou-se o solvente alternativo ao n-hexano. A acetona foi o solvente proposto uma vez que tem as propriedades indicadas para o fim a que se destina.
Resumo:
Este estudo pretende (1) encontrar a prevalência da Perturbação do Desenvolvimento da Coordenação (PDC) em crianças com Perturbação de Hiperatividades e Défice de Atenção (PHDA); (2) analisar qual a prevalência de défices de memória de trabalho verbal e não-verbal, em crianças com PHDA e comparar o desempenho entre as crianças que só apresentam PHDA e aquelas que apresentam também PDC; (3) verificar se a ocorrência de PDC é agravada, de acordo com a presença ou ausência de alterações de memória de trabalho e se estas podem ser consideradas fatores de risco ou de proteção para a manifestação de PDC, enquanto comorbilidade de PHDA. Foram selecionadas 37 crianças com diagnóstico de PHDA, com idades compreendidas entre os 7 e os 14 anos. A componente motora foi avaliado com a versão curta do Bruininks-Oseretsky Test of Motor Proficiency (BOTMP) e o Questionário de Perturbação do Desenvolvimento da Coordenação 2007 (DCDQ’07); a memória de trabalho foi avaliada através da Figura Complexa de Rey, Trail Making Test - parte B e Memória de Dígitos – sentido inverso. Para determinar o impacto da memória de trabalho na componente motora, recorreu-se a uma regressão logística. Encontrou-se uma prevalência de PDC de 51% e de défices ao nível da memória de trabalho verbal e não-verbal de 60% e 80%, respetivamente, para a amostra total de crianças com PHDA. A terapêutica farmacológica para a PHDA revelou-se fator protetor para a manifestação de PDC, principalmente quando a primeira se encontra associada com o nascimento de termo. Um mau desempenho no teste Memória de Dígitos – sentido inverso é fator de risco para a manifestação de PDC, em crianças com PHDA. Este estudo permitiu verificar que crianças com PHDA+PDC apresentam défices motores genuínos, característicos de manifestação de PDC. Parecem também existir relações bastante complexas entre a memória de trabalho e os mecanismos de controlo motor na PHDA, sendo que estes podem ser distintos quando está presente uma comorbilidade de PDC.
Resumo:
Introdução: Duplo diagnóstico é a designação utilizada para descrever o diagnóstico de perturbação pela utilização de substâncias simultaneamente com critérios de doença mental severa (Leposavié et al., 2015; Lorenzo et al., 2014; Padwa et al., 2013). O duplo diagnóstico é a causa de uma diversidade de disfunções entre elas o comprometimento do desempenho motor. Objetivos: O objetivo principal é determinar a eficácia da aplicação de um programa de intervenção de exergaming com atividade física com recurso à Nintendo Wii na promoção do desempenho motor de indivíduos com duplo diagnóstico de perturbação pela utilização de substâncias e doença mental severa em tratamento numa comunidade terapêutica. Pretende-se ainda verificar os efeitos da aplicação deste programa em variáveis antropomórficas, psicocopatológicas e neuropsicológicas. Métodos: Foi realizado um estudo ensaio clínico randomizado com avaliação antes e após do desempenho motor, avaliação antropomórfica, psicopatológica e neuropsicológica. A amostra é constituída por 14 indivíduos com duplo diagnostico (n=14) recrutados de uma comunidade terapêutica, alocados num grupo experimental (n=7) sujeitos a um programa com exergaming com atividade física e num grupo controlo (n=7) com intervenção com videojogos sem atividade física durante 21 sessões de aproximadamente 45 minutos cada. Resultados: O grupo experimental apresentou melhores resultados que o grupo controlo na avaliação do desempenho motor verificando-se diferenças estatisticamente significativas (p=0,028 e p=0,030) no equilíbrio, através do teste Flamingo e Balance Board respetivamente e no limiar da significância (p=0,082) na força muscular dos membros superiores através do uso da dinamometria. Conclusão: A intervenção com Nintendo Wii com recurso a exergaming com atividade física parece ser uma ferramenta eficaz para a melhoria do equilíbrio, em indivíduos com duplo diagnóstico de perturbação pela utilização de substâncias e doença mental severa, em tratamento numa comunidade terapêutica e próximo do significativo no que se refere a força dos membros superiores. Relativamente a outros parâmetros do funcionamento motor, são necessários outros estudos.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.
Resumo:
Este trabalho procura resolver um problema detetado numa União de Cooperativas. Apesar da existência de um sistema de gestão da qualidade já há vários anos, a organização tem necessidade de revisitar os conceitos fundamentais e basilares da sua existência organizacional. Neste trabalho efetua-se, não só uma reflexão estratégica, permitindo partir para o desenvolvimento de um instrumento de medição e gestão do desempenho organizacional, que é o Balanced Scorecard, mas também faz-se uma reflexão sobre a missão, a visão e os valores da organização. A partir de um trabalho de campo traduzido na auscultação dos próprios colaboradores da organização em forma de entrevistas semi-estruturadas e na qual foi utilizado um guião que se baseou num modelo académico muito citado na literatura (Ferreira e Otley, 2009), mas com pouca ou mesmo nenhuma utilização em trabalhos profissionais, foi possível iniciar um processo, desenvolvido em várias fases para conceber e implementar um Balanced Scorecard. Estas fases foram seguidas, tendo em conta os contributos de alguns autores especialistas nesta matéria. Na sua parte aplicada (estudo empírico), este trabalho procura fazer uma conexão com todos os tópicos desenvolvidos nos capítulos iniciais, dedicados à revisão da literatura. Por exemplo, a apresentação dos modelos de controlo de gestão no capítulo 2 estão diretamente ligados com a realização das entrevistas, uma vez que estas foram realizadas com base num guião que partiu dos modelos mencionados. Outro exemplo é a abordagem de critérios e testes para a escolha de indicadores do desempenho. Estes critérios e testes foram tidos em consideração aquando da seleção dos indicadores no trabalho empírico. Assim, depois de iniciar com uma breve introdução, no capítulo 1, onde se apresenta o contexto para o aparecimento de ferramentas de medição e gestão do desempenho organizacional mais adaptadas à realidade empresarial existente, este trabalho apresenta a revisão da literatura, no capítulo 2, quer em termos de modelos de controlo de gestão em particular (pouco comuns em trabalhos profissionais, mas muito utilizados em trabalhos académicos), quer em termos de medição e gestão do desempenho em geral. Na primeira parte deste capítulo são apresentados os três modelos de controlo de gestão que estão na base do trabalho de diagnóstico (com ênfase nas entrevistas), realizado no capítulo do estudo empírico. Na segunda parte do segundo capítulo são abordados dois dos principais instrumentos de medição e gestão do desempenho organizacional: o SMART Pyramid e o Performance Prism. Apesar do trabalho estar relacionado com o Balanced Scorecard, tratado de forma detalhada no capítulo 3, estes dois instrumentos possuem características similares e foram também importantes como base do trabalho empírico. O capítulo 3 é dedicado exclusivamente ao modelo do Balanced Scorecard. Este é analisado desde a sua evolução histórica até ao desenvolvimento para entidades sem fins lucrativos, passando por um detalhe das suas características mais específicas, assim como o seu papel em Portugal. No quarto capítulo é abordada a organização objeto do presente trabalho. A sua evolução histórica e os detalhes organizacionais atuais são apresentados. No capítulo 5 é apresentada a metodologia utilizada no presente trabalho, nomeadamente a utilizada para a realização das entrevistas e para a conceção e proposta de implementação do Balanced Scorecard. O capítulo 6 é dedicado ao estudo empírico. Inicia-se com a análise das entrevistas através de uma secção dedicada ao diagnóstico e termina através das fases definidas na metodologia com a conceção e proposta de implementação do Balanced Scorecard. Finalmente, o último capítulo apresenta as principais conclusões do presente trabalho, nomeadamente as lições aprendidas e as possibilidades de melhoria em futuros trabalhos similares.
Resumo:
O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.
Resumo:
A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara de vídeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara de vídeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.
Resumo:
Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.