130 resultados para Localização automática
Resumo:
A distinção entre miocárdio atordoado e danificado tem sido uma preocupação relevante, no cenário de um enfarte agudo do miocárdio (EAM). A avaliação da viabilidade do miocárdio, pós-enfarte, é de importância vital, no contexto clínico, principalmente numa fase inicial. Actualmente a Ressonância Magnética Cardíaca é o exame de referência para a avaliação de viabilidade do miocárdio. No entanto, é um exame com elevado custo e de difícil acesso. Estudos preliminares demonstraram potencial na utilização de imagens por Tomografia Computorizada para avaliação da área de enfarte, quer em estudos animais quer em humanos. É objectivo desta tese verificar a utilidade de um protocolo de avaliação de viabilidade do miocárdio, com base em imagens de realce tardio (RT) por Tomografia Computorizada, após um procedimento de intervenção coronária percutânea, no contexto de enfarte agudo do miocárdio com elevação do segmento ST (STEMI). Pretende-se igualmente contribuir para a análise da imagem médica do miocárdio, proporcionando métodos de quantificação do RT e software de suporte à decisão médica nesta modalidade de imagem substancialmente recente. São avaliados vários processos para a quantificação do volume de RT, incluindo um método inovador baseado na detecção automática do miocárdio normal. _E ainda proposto um algoritmo para detecção automática do grau de transmuralidade, por segmento do miocárdio, e comparado o seu grau de eficiência face ao diagnóstico médico dos mesmos exames. Apesar do reduzido número de exames utilizado para validação das técnicas descritas nesta tese, os resultados são bastante promissores e podem constituir uma mais-valia no auxilio à gestão do paciente com EAM.
Levantamento elétrico e análise de equipamento para acabamento térmico e químico de telas para pneus
Resumo:
Esta dissertação surge da necessidade da empresa Continental - Indústria Têxtil do Ave S.A. – grupo Continental Mabor atualizar os esquemas elétricos de uma máquina para acabamento térmico e químico de telas para pneus. Esta máquina (Zell) é crucial no seu processo produtivo e foi ao longo dos anos sofrendo sucessivas atualizações no sentido de melhorar o seu processo de produção. Existiam já, esquemas elétricos da máquina realizados em EPLAN no entanto não foram acompanhando as sucessivas alterações sofridas pela mesma. Deste modo, torna-se assim necessário não só produzir um suporte digital desses mesmos esquemas como também proceder à sua atualização. Ao longo desta dissertação o leitor pode obter informações relativas à Zell e ao processo de análise, estudo e documentação dos seus quadros elétricos em software EPLAN Electric P8. São ainda abordadas técnicas de leitura e desenho em EPLAN e descritas algumas das funcionalidade que este permite. É abordada a base de dados criada com informações relativas à máquina tais como características dos seus motores, variadores de frequência e localização dos quadros elétricos ao longo dos pisos que a compõe. No âmbito desta dissertação foi redigido o “Manual da Máquina de Impregnar Zell” e neste relatório abordam-se os principais tópicos que o compõe. Com a atualização dos esquemas tornou-se necessário proceder à identificação de diversos componentes na máquina. Esse processo de identificação é também aqui retratado. O leitor pode por fim obter informações de como realizar um processo de troca de variadores de frequência da marca ABB de diferentes gamas tendo em consideração as ligações em causa para o fazer. Pretende-se assim que o leitor fique com uma noção geral das diferentes vertentes que foram abordadas neste trabalho realizado sob a forma de um estágio com duração de seis meses no seio desta indústria.
Resumo:
Introduction: Lower Respiratory Tract Infections (LRTIs) are highly prevalent in institutionalised people with dementia, constituting an important cause of morbidity and mortality. Computerised auscultation of Adventitious Lung Sounds (ALS) has shown to be objective and reliable to assess and monitor respiratory diseases, however its application in people with dementia is unknown. Aim: This study characterised ALS (crackles and wheezes) in institutionalised people with dementia. Methods: An exploratory descriptive study, including 6 long-term care institutions was conducted. The sample included a dementia group (DG) of 30 people with dementia and a match healthy group (HG) of 30 elderly people. Socio-demographic and anthropometric data, cognition, type and severity of dementia, cardio-respiratory parameters, balance, mobility and activities and participation were collected. Lung sounds were recorded with a digital stethoscope following Computerised Respiratory Sound Analysis (CORSA) guidelines. Crackles’ location, number (N), frequency (F), two-cycle duration (2CD), initial deflection width (IDW) and largest deflection width (LDW) and wheezes’ number (N), ratio (R) and frequency (F) were analysed per breathing phase. Statistical analyses were performed using PASW Statistics(v.19). Results: There were no significant differences between the two groups in relation to the mean N of crackles during inspiration and expiration in both trachea and thorax. DG trachea crackles had significant higher F during inspiration and lower IDW, 2CD and LDW during expiration when compared with HG. At the thorax, the LDW during inspiration was also significantly lower in the DG. A significant higher N of inspiratory wheezes was found in the HG. Both groups had a low ratio of high frequency wheezes. Conclusion: Computerised analyses of ALS informed on the respiratory system and function of people with dementia and elderly people. Hence, this could be the step towards prevention, early diagnosis and continuous monitoring of respiratory diseases in people with cognitive impairment.
Resumo:
Neste trabalho apresentam-se os resultados da analise e comparação da utilização da Análise de Componentes Principais Clássica (ACP) e a Análise de Componentes Principais Robusta (ACPR) na descrição da relação entre a profundidade de um solo florestal e as alterações em quatro propriedades geoquímicas fundamentais. Os resultados obtidos reconhecem que, neste tipo de dados e cala local, a utilização da ACPR deve ser utilizada em detrimento da ACP e que o procedimento de amostragem de solos pouco férteis, como é o caso dos solos florestais, pode ser aliviado em termos de detalhe em profundidade por uma amostragem a uma altura única de 18cm mas deve, contudo, ser efectuada estrategicamente, dado que a localização dos pontos de amostragem revela ter significativa influência nos resultados obtidos.
Resumo:
A civilização contemporânea, pelas suas características, é muito exigente em tudo o que diz respeito ao conforto dos edifícios, para trabalho ou habitação, e à necessidade de economizar e racionalizar o uso de energia. A térmica dos edifícios assume, por isso, uma importância acrescida na atividade profissional e no ensino. Para se conduzir ao aperfeiçoamento de soluções na envolvente dos edifícios a este nível, o trabalho aqui realizado centrou-se no estudo do funcionamento da termografia de infravermelhos e da importância da sua utilização na inspeção térmica de edifícios. Descoberta no início do século XIX e desenvolvendo os primeiros sistemas operativos desde a 1ª Guerra Mundial, a fim de determinar heterogeneidades de temperatura superficial, esta técnica não destrutiva permite identificar anomalias que não são visualizadas a olho nu. Com a análise dessas variações de temperatura é possível conhecer os problemas e a localização de irregularidades. Este trabalho baseia-se substancialmente no estudo de edifícios. A análise realizada teve como finalidade executar inspeções termográficas – visuais, com duas abordagens. Por um lado, avaliar salas pertencentes a estabelecimentos de ensino secundário, reabilitadas e não reabilitadas, todas construídas entre as décadas de 60 e 90, com o intuito de diagnosticar patologias construtivas, recorrendo à termografia. Por outro, a análise de edifícios de habitação, com a intenção de avaliar a necessidade de um equipamento complementar às inspeções termográficas – o sistema de porta ventiladora. As inspeções foram regidas pelas diretrizes da norma europeia EN 13187. A termografia é uma técnica importante na realização de ensaios in situ que requerem rapidez de execução, aliada à vantagem de disponibilizar resultados em tempo real, permitindo assim uma primeira análise das leituras no local. A inspeção termográfica complementada com o sistema de porta ventiladora permitiu, também, revelar a importância da necessidade de meios auxiliares em certos casos. A conjugação destas diferentes técnicas permite reduzir a subjetividade da análise in situ e aumentar a fiabilidade do diagnóstico.
Resumo:
O Microsoft Excel é uma ferramenta incontornável, quer seja utilizado em ambiente profissional, académico ou a título pessoal, sendo a folha de cálculo dominante no mercado. O novo Excel 2013 funciona em diversas plataformas: computadores, smartphones, tablets, na nuvem (cloud), e até mesmo em computadores que não têm o Office instalado, através do Office 365. Com uma ligação à Internet é agora possível aceder às suas folhas de cálculo independentemente da sua localização ou do tipo de dispositivo que estiver a utilizar. Poderá ainda trabalhar em modo off-line, sincronizando os seus dados com a sua pasta na Cloud quando tiver acesso à Internet. Este livro propõe-se contribuir para um maior conhecimento das potencialidades do novo Excel, destinando-se a todos aqueles que pretendam iniciar-se nas folhas de cálculo ou ampliar os seus conhecimentos sobre o Excel 2013. Mesmo aqueles que já utilizam o Excel há alguns anos poderão encontrar neste livro inúmeras dicas que os ajudarão a otimizar o seu trabalho e a executar algumas tarefas de forma mais rápida e eficiente! O livro baseia-se em exemplos passo-a-passo, ilustrados a cores, que guiam o utilizador na execução decifrada de cada procedimento. Ao longo deste livro são abordados diversos temas, tais como: • Formatar dados e tabelas • Gerir, configurar e imprimir folhas de dados • Elaborar gráficos • Utilizar fórmulas de cálculo e funções incorporadas • Gerir e organizar listas de dados: filtrar, agrupar, importar e exportar dados • Elaborar tabelas e gráficos dinâmicos • Análise de hipóteses: tabelas de simulação, gerir cenários, atingir objetivo • Análise de dados com a ferramenta Solver • Rever, comentar e registar alterações em folhas de cálculo • Proteger dados e partilhar folhas de cálculo • Adicionar e utilizar serviços Cloud: SkyDrive, Google Drive, Dropbox • Partilhar em redes sociais • Apps para o Excel: a Office Store
Resumo:
Engenharia Informática, Área de Especialização em Arquiteturas, Sistemas e Redes
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Área de Especialização em Automação e Sistemas
Resumo:
Mestrado em Engenharia Mecânica
Resumo:
A prática de exercício físico é considerado condição essencial para a manutenção de uma boa saúde. A faixa etária de frequentadores de ginásios inclui utentes desde os 8 aos 80 anos, incluindo assim os grupos mais sensíveis à poluição do ar interior. Embora exista legislação específica para ginásios, nomeadamente para as condições de implementação, a mesma é reduzida e não contempla a qualidade do ar interior (QAI). O objetivo geral deste estudo consistiu na avaliação da QAI de quatro ginásios existentes na área metropolitana do Porto. O período de amostragem realizou-se entre 2 de Maio e 20 de Junho 2014 e, após a caracterização dos ginásios, foram monitorizados os seguintes parâmetros: partículas ultrafinas (< 100 nm), matéria particulada suspensa no ar de frações PM1, PM2,5, PM4 e PM10, dióxido de carbono, monóxido de carbono, ozono, compostos orgânicos voláteis, formaldeído, temperatura ambiente e humidade relativa durante 24 h/dia em salas com diferentes actividades (sala de musculação e cardiofitness e sala de aulas de grupo). Os resultados da avaliação dos parâmetros físicos e químicos foram comparados com os limiares de proteção e margem de tolerância do Decreto-Lei nº 118/2013 de 20 de Agosto, a Portaria nº 353-A/2013 de 4 de Dezembro e o Diploma que regula a construção, instalação e funcionamento dos ginásios. Os poluentes com maiores níveis de excedência são o dióxido de carbono, compostos orgânicos voláteis e as partículas PM2,5. As excedências devem-se essencialmente à sobrelotação das salas, excesso de atividade física e ventilação insuficiente. A localização da instalação dos ginásios é também um fator de extrema importância, sendo recomendado que este se situe em local pouco influenciado pelo tráfego automóvel, assim como, afastado de locais de possível interferência devido às atividades presentes, como é o caso da restauração existente em centros comerciais.
Resumo:
A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.
Resumo:
No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.
Resumo:
O presente trabalho tem como objetivo o cálculo e desenvolvimento de um projecto estrutural de um edifício público. O edifício em questão será construído em Camama, Angola. Ao longo deste trabalho são apresentadas as diferentes etapas necessárias para a conceção do projeto estrutural de um edifício em betão armado. As opções consideradas na realização deste projeto e as respetivas justificações, podem ser encontradas ao longo deste documento. Estas são reforçadas através da apresentação de plantas estruturais com os seus elementos e os cálculos considerados necessários. Este trabalho foi elaborado com o apoio do programa de cálculo ROBOT Structural Analysis para a caracterização e análise das ações atuantes. Apesar da localização do edifício ser em Angola, as ações e as bases de projeto são definidas de acordo com as normas portuguesas. A utilização destas normas foi possível através de referências comuns a ambos os países, bem como algumas considerações tendo em conta as condições de construção em Luanda. Para a definição do projeto estrutural foram fornecidas as plantas de arquitetura, cortes e alçados do edifício. Estas plantas apresentam os respetivos materiais não estruturais, a utilizar após a sua construção. Em adição foi fornecida uma sondagem geotécnica do terreno de construção.
Resumo:
A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.