50 resultados para Detecção Automática de Regiões de Interesse
em Instituto Politécnico do Porto, Portugal
Resumo:
A regulamentação de segurança das instalações reveste‐se da maior relevância, não só em consideração à vida humana, como à própria actividade económica. Motivada pela constante evolução da tecnologia, do surgimento de novos materiais e equipamentos e das exigências funcionais dos espaços, a regulamentação de segurança requer uma constante actualização e adaptação a essa novas necessidades e exigências. Cada vez mais a segurança de pessoas e bens é uma directriz fundamental aquando da realização dos projectos e execução dos edifícios, dos mais diversos fins. De forma a precaver situações que possam colocar em risco pessoas e bens, são consideradas medidas activas e passivas de protecção, das quais poderemos destacar os sistemas de detecção automática de incêndio, detecção automática de intrusão, sinalização de saída, etc. Assim, a especial preocupação com a segurança de pessoas e bens justifica a importância ocupada pela segurança, a qual exige a necessidade de se assegurar a forma como são projectadas, executadas, exploradas e conservadas, em geral as instalações e em particular as instalações de segurança dos edifícios. Torna‐se, pois, imperioso garantir‐se o cumprimento, por parte de todos de todos os agentes envolvidos (projectistas, instaladores...), da aplicação dos regulamentos estabelecidos para as instalações de Segurança. Esta tarefa apenas poderá ser conseguida se houver um conhecimento completo e profundo dos diplomas legais que enquadram a área de segurança dos edifícios. O presente trabalho tem, pois, por objectivo, sistematizar e apresentar a presente regulamentação contra incêndios em edifícios, bem como apresentar o futuro Regulamento de Segurança Contra Incêndio em Edifícios, que vem criar um inovador enquadramento nesta área, por forma a serem garantidas as exigências mínimas de protecção de pessoas, instalações e bens.
Resumo:
A distinção entre miocárdio atordoado e danificado tem sido uma preocupação relevante, no cenário de um enfarte agudo do miocárdio (EAM). A avaliação da viabilidade do miocárdio, pós-enfarte, é de importância vital, no contexto clínico, principalmente numa fase inicial. Actualmente a Ressonância Magnética Cardíaca é o exame de referência para a avaliação de viabilidade do miocárdio. No entanto, é um exame com elevado custo e de difícil acesso. Estudos preliminares demonstraram potencial na utilização de imagens por Tomografia Computorizada para avaliação da área de enfarte, quer em estudos animais quer em humanos. É objectivo desta tese verificar a utilidade de um protocolo de avaliação de viabilidade do miocárdio, com base em imagens de realce tardio (RT) por Tomografia Computorizada, após um procedimento de intervenção coronária percutânea, no contexto de enfarte agudo do miocárdio com elevação do segmento ST (STEMI). Pretende-se igualmente contribuir para a análise da imagem médica do miocárdio, proporcionando métodos de quantificação do RT e software de suporte à decisão médica nesta modalidade de imagem substancialmente recente. São avaliados vários processos para a quantificação do volume de RT, incluindo um método inovador baseado na detecção automática do miocárdio normal. _E ainda proposto um algoritmo para detecção automática do grau de transmuralidade, por segmento do miocárdio, e comparado o seu grau de eficiência face ao diagnóstico médico dos mesmos exames. Apesar do reduzido número de exames utilizado para validação das técnicas descritas nesta tese, os resultados são bastante promissores e podem constituir uma mais-valia no auxilio à gestão do paciente com EAM.
Resumo:
A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.
Resumo:
Este documento apresenta o desenvolvimento de um sistema que visa relacionar e interligar as tecnologias móveis, automação industrial e SAP às necessidades da Gopaca, uma empresa de produção de derivados de cartão. A empresa Gopaca demonstrou interesse e necessidade em melhorar os seus processos internos de maneira a aumentar produtividade, diminuir desperdícios e implementar uma filosofia de Lean Manufacturing. Para que isso fosse possível foram implementados novos processos em SAP de modo a automatizar todo o processo pré-produtivo, pós produtivo e expedicional, bem como implementado um sistema de Warehouse Management inovador a nível mundial no que a empresas de produção de cartão diz respeito. Sendo expectável que após a conclusão do projecto os resultados fossem inegáveis em termos de aplicação da metodologia Lean Manufacturing. Foram efectuadas melhorias na forma como a entrada de mercadoria e produção é feita em SAP, passando de completamente manual para completamente automática, até à forma como a expedição será feita, apenas necessitando de um operador com uma pistola de leitura de códigos de barra para despoletar o processo completo até ao momento de impressão da guia de transporte. Todo este processo é inovador no que diz respeito à sua implementação em SAP com o foco no desejo do cliente, não existindo ainda, nenhum produto (modulo SAP) no mercado que permita a execução automática dos processos indicados. Todos os processos se tornaram simples e intuitivos e na maior parte dos casos sem qualquer necessidade de interacção com o utilizador, reduzindo o tempo anteriormente despendido nesta operações, podendo este ser aplicado nas áreas onde é realmente necessário.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.
Resumo:
Nesta dissertação é apresentado um estudo dos sistemas de processamento automático de imagem em contexto de um problema relacionado com a individualização de neurónios em imagens da nematoda C. elegans durante estudos relacionados com a doença de Parkinson. Apresenta-se uma breve introdução à anatomia do verme, uma introdução à doença de Parkinson e uso do C. elegans em estudos relacionados e também é feita a análise de artigos em contexto de processamento de imagem para contextualizar a situação atual de soluções para o problema de extração de características e regiões específicas. Neste projeto é desenvolvida uma pipeline com o auxilio do software CellProfiler para procurar uma resposta para o problema em questão.
Resumo:
Poderá, um dia, a tradução automática suprimir ou dissipar as diferenças que bloquearam e obstruíram a comunicação na mítica torre babeliana? Será a tradução automática capaz de diluir as diferenças linguísticas que separam as comunidades humanas? Estas perguntas são, provavelmente, as que ocorrem ao público em geral, quando ouve falar de uma nova descoberta em Inteligência Artificial ou de uma nova aplicação informática para tradução. A curiosidade e o entusiasmo do público não-especialista contrasta, não raras vezes, com algum cepticismo e desconfiança de tradutores e teóricos da tradução.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Mestrado em Engenharia Química
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Mestre Alberto Couto.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
O crescimento da concorrência internacional pela captação de lnvestimento Directo externo (IDE) deixa transparecer o interesse dos países e regiões por um instrumento que pode canalizar recursos externos importantes para o seu crescimento económico. Na atracção deste investimento, atribui-se tradicionalmente grande relevância à dotação do país/região de acolhimento em factores produtivos básicos e ao regime público de incentivos praticado, desvalorizando-se, amiúde, o processo de tomada de decisão por parte do investidor. Sabe-se, entretanto, que nesse processo, de natureza interactiva, as redes (sociais, intra-empresariais, inter-empresariais e institucionais) desempenham um papel estratégico de mediação na recolha, selecção e processamento da informação sobre os países/regiões de acolhimento. Os mecanismos de formação e actuação destas redes no processo de atracção de IDE são analisados neste artigo.
Resumo:
O desenvolvimento de software orientado a modelos defende a utilização dos modelos como um artefacto que participa activamente no processo de desenvolvimento. O modelo ocupa uma posição que se encontra ao mesmo nível do código. Esta é uma abordagem importante que tem sido alvo de atenção crescente nos últimos tempos. O Object Management Group (OMG) é o responsável por uma das principais especificações utilizadas na definição da arquitectura dos sistemas cujo desenvolvimento é orientado a modelos: o Model Driven Architecture (MDA). Os projectos que têm surgido no âmbito da modelação e das linguagens específicas de domínio para a plataforma Eclipse são um bom exemplo da atenção dada a estas áreas. São projectos totalmente abertos à comunidade, que procuram respeitar os standards e que constituem uma excelente oportunidade para testar e por em prática novas ideias e abordagens. Nesta dissertação foram usadas ferramentas criadas no âmbito do Amalgamation Project, desenvolvido para a plataforma Eclipse. Explorando o UML e usando a linguagem QVT, desenvolveu-se um processo automático para extrair elementos da arquitectura do sistema a partir da definição de requisitos. Os requisitos são representados por modelos UML que são transformados de forma a obter elementos para uma aproximação inicial à arquitectura do sistema. No final, obtêm-se um modelo UML que agrega os componentes, interfaces e tipos de dados extraídos a partir dos modelos dos requisitos. É uma abordagem orientada a modelos que mostrou ser exequível, capaz de oferecer resultados práticos e promissora no que concerne a trabalho futuro.
Resumo:
Ao longo dos tempos foi possível constatar que uma grande parte do tempo dos professores é gasta na componente de avaliação. Por esse facto, há já algumas décadas que a correcção automática de texto livre é alvo de investigação. Sendo a correcção de exercícios efectuada pelo computador permite que o professor dedique o seu tempo em tarefas que melhorem a aprendizagem dos alunos. Para além disso, cada vez mais as novas tecnologias permitem o uso de ferramentas com bastante utilidade no ensino, pois para além de facilitarem a exposição do conhecimento também permitem uma maior retenção da informação. Logo, associar ferramentas de gestão de sala de aula à correcção automática de respostas de texto livre é um desafio bastante interessante. O objectivo desta dissertação foi a realização de um estudo relativamente à área de avaliação assistida por computador em que este trabalho se insere. Inicialmente, foram analisados alguns correctores ortográficos para seleccionar aquele que seria integrado no módulo proposto. De seguida, foram estudadas as técnicas mais relevantes e as ferramentas que mais se enquadram no âmbito deste trabalho. Neste contexto, a ideia foi partir da existência de uma ferramenta de gestão de sala de aula e desenvolver um módulo para a correcção de exercícios. A aplicação UNI_NET-Classroom, que foi a ferramenta para a qual o módulo foi desenvolvido, já continha um componente de gestão de exercícios que apenas efectuava a correcção para as respostas de escolha múltipla. Com este trabalho pretendeu-se acrescentar mais uma funcionalidade a esse componente, cujo intuito é dar apoio ao professor através da correcção de exercícios e sugestão da cotação a atribuir. Por último, foram realizadas várias experiências sobre o módulo desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. A conclusão mais importante foi que as ferramentas de correcção automática são uma mais-valia para os professores e escolas.