8 resultados para Extração semi-automática
em Instituto Politécnico do Porto, Portugal
Resumo:
Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.
Resumo:
Poderá, um dia, a tradução automática suprimir ou dissipar as diferenças que bloquearam e obstruíram a comunicação na mítica torre babeliana? Será a tradução automática capaz de diluir as diferenças linguísticas que separam as comunidades humanas? Estas perguntas são, provavelmente, as que ocorrem ao público em geral, quando ouve falar de uma nova descoberta em Inteligência Artificial ou de uma nova aplicação informática para tradução. A curiosidade e o entusiasmo do público não-especialista contrasta, não raras vezes, com algum cepticismo e desconfiança de tradutores e teóricos da tradução.
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Mestre Alberto Couto.
Resumo:
O calibre da artéria aorta torácica é avaliado em situações de suspeita de patologia ou em pacientes com pre-disposição para desenvolverem doenças vasculares. A medição das suas dimensões, em duas direcções diametralmente opostas e, assim, fulcral na avaliação desta estrutura. Para tal, o exame de primeira linha definido é a Angiografia por Tomografia Computorizada (Angio-TC), injectando-se um produto de contraste na veia radial que irá opacificar os vasos, permitindo a sua distinção das estruturas adjacentes. O presente trabalho, inserido na disciplina de Dissertação/ Projecto/ Estágio Profissional do Mestrado em Engenharia de Computação e Instrumentação Médica e com a cooperação da empresa Efficientia, foi sugerido pela equipa de Angio-TC do Centro Hospitalar de Vila Nova de Gaia (CHVNG) e tem por objectivo o desenvolvimento de uma aplicação para a medição e registo automático do diâmetro da aorta torácica em nove pontos anatómicos pre-definidos em imagens de Tomografia Computorizada (TC). A aplicação foi desenvolvida no ambiente integrado de processamento e análise de imagem, Fiji, sendo a metodologia composta pelas etapas de segmentação, desenho da linha central, determinação dos planos de cortes, segmentação e medição da aorta nos planos de corte. Os resultados obtidos pela metodologia proposta são concordantes com os obtidos por especialistas para o conjunto de teste utilizado neste trabalho.
Resumo:
O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré-concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.
Resumo:
Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.
Resumo:
Qualquer estrutura hoje em dia deve ser resistente, robusta e leve, o que aumentou o interesse industrial e investigação nas ligações adesivas, nomeadamente pela melhoria das propriedades de resistência e fratura dos materiais. Com esta técnica de união, o projeto de estruturas pode ser orientado para estruturas mais leves, não só em relação à economia direta de peso relativamente às juntas aparafusas ou soldadas, mas também por causa da flexibilidade para ligar materiais diferentes. Em qualquer área da indústria, a aplicação em larga escala de uma determinada técnica de ligação supõe que estão disponíveis ferramentas confiáveis para o projeto e previsão da rotura. Neste âmbito, Modelos de Dano Coesivo (MDC) são uma ferramenta essencial, embora seja necessário estimar as leis MDC do adesivo à tração e corte para entrada nos modelos numéricos. Este trabalho avalia o valor da tenacidade ao corte (GIIC) de juntas coladas para três adesivos com ductilidade distinta. O trabalho experimental consiste na caracterização à fratura ao corte da ligação adesiva por métodos convencionais e pelo Integral-J. Além disso, pelo integral-J, é possível definir a forma exata da lei coesiva. Para o integral-J, é utilizado um método de correlação de imagem digital anteriormente desenvolvido para a avaliação do deslocamento ao corte do adesivo na extremidade da fenda (δs) durante o ensaio, acoplado a uma sub-rotina em Matlab® para a extração automática de δs. É também apresentado um trabalho numérico para avaliar a adequabilidade de leis coesivas triangulares aproximadas em reproduzir as curvas força-deslocamento (P-δ) experimentais dos ensaios ENF. Também se apresenta uma análise de sensibilidade para compreender a influência dos parâmetros coesivos nas previsões numéricas. Como resultado deste trabalho, foram estimadas experimentalmente as leis coesivas de cada adesivo pelo método direto, e numericamente validadas, para posterior previsão de resistência em juntas adesivas. Em conjunto com a caraterização à tração destes adesivos, é possível a previsão da rotura em modo-misto.
Resumo:
O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.