68 resultados para processamento digital de sinal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A sociedade contemporânea tem acompanhado a evolução da Internet, ligando cada vez mais pessoas que exigem mais dela a cada dia que passa e desencadeando uma proliferação tecnológica nunca antes observada. A utilização de recursos, como vídeo e áudio na Internet, tem ganho nos últimos anos um crescente interesse. No entanto, constata-se a carência ou falta de recursos educativos digitais na área do áudio, que sejam capazes de apresentar uma pedagogia eficiente face a um tema muito complexo e extenso, para todos aqueles que queiram aprender de forma mais aprofundada o áudio como componente de engenharia. Na internet, sites dedeos como Youtube ensinam a usar software de edição de áudio como Audacity, conceitos sobre som e áudio. Contudo, todos estão espalhados, sendo que a maior parte deles não possui fundamentos científicos ou uma bibliografia que acompanhe os conteúdos que leccionam. A proposta desta investigação é pesquisar sobre conhecimentos e recursos de áudio, integrando-os num produto Learning Object, Investigar noções teóricas sobre o som, equipamentos e técnicas usadas na área, assim como obter melhores resultados num espaço para a gravação que o aluno poderia fazer, aglomerando esses conceitos num protótipo mediamente desenvolvido. Foi necessária uma investigação extensa nesta área e avaliar e investigar a possibilidade de um recurso educativo, como o DALCH, capaz de proporcionar uma aprendizagem efectiva dos conceitos relacionados com áudio, que é um conceito complexo. Uma vez realizada essa investigação, foi necessário desenvolver, testar e avaliar um produto Learning Object, que apresentasse o áudio na sua globalidade, desde conceitos básicos até conceitos inerentes à própria produção. Foi possível aferir que esta solução pode contribuir para a formação desses alunos mediante uma experiência de aprendizagem agradável e intuitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade de diminuir os consumos de energia, não só por questões financeiras mas também por questões ambientais, faz com que sejam feitos esforços no sentido da implementação de energias renováveis bem como da melhoria e expansão das soluções técnicas já conhecidas. Uma das maiores fontes de energia renovável, senão mesmo a maior, é a energia solar que, no futuro, terá uma contribuição muito significativa, quer na satisfação dos consumos energéticos, quer na racionalização da sua utilização, isto é, na melhoria da eficiência do consumo. O presente trabalho focou-se na procura de um sistema solar térmico para o pré-aquecimento da água quente a ser utilizada numa fábrica de curtumes, a empresa Curtumes Aveneda, Lda. Em simultâneo, desenvolveram-se e optimizaram-se processos de produtos específicos que o mercado exige actualmente, visando uma economia de recursos (matérias-primas, água e energia), objectivando sempre a sua viabilidade económica. No que respeita à procura do sistema solar térmico, inicialmente foram realizados levantamentos relativos ao consumo de água, quente e fria, na respectiva empresa. Esta avaliação focou-se em todos os sectores consumidores intensivos de água, tais como a ribeira, curtume e a tinturaria, excluindo o sector de acabamento uma vez que o consumo aqui é insignificante relativamente aos sectores citados anteriormente. Com base no levantamento efectuado foi dimensionado um sistema solar térmico para o pré aquecimento da água quente que conduz a uma economia anual de 107.808,3 kWh de energia térmica, representativa de 29% do consumo anual de energia térmica de aquecimento de água. Foi efectuada análise económica deste investimento que mostrou um índice de rentabilidade superior à unidade e um tempo de retorno do investimento de 9 anos. Desenvolveu-se com sucesso um produto de couro a partir de wet-blue, designado por crispado, produto normalmente produzido a partir da pele em tripa e muito difícil de obter a partir de wet-blue. Este produto caracteriza-se pela sua forma granular irregular e firme da pele. O processo desenvolvido foi ainda optimizado no sentido da redução do consumo de água e de energia. Tendo em conta a necessidade da empresa também se tentou melhorar as características do couro wet-white, muito solicitado actualmente, com resultados positivos no que respeita à temperatura de contracção do couro e às propriedades físico-mecânicas mas sem se atingir o principal objectivo que seria tornar a cor mais clara e mais pura. Foram desta forma dados contributos importantes para a empresa que, assim, dimensionou um sistema mais económico para o aquecimento de água que vai adoptar e ficou com um processo disponível para produzir um produto até então não conseguido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição dedeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames dedeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames dedeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame dedeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames dedeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames dedeo, mostrando adequabilidade para aplicação de monotorização em tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A variação do binário de uma carga acoplada ao motor de indução desencadeia uma série de fenómenos internos conducentes a um novo ponto de funcionamento. No caso de um dente partido numa roda dentada de um redutor de velocidade, quando acionada, este tipo de defeito produz um aumento de binário sempre que a zona de defeito é sujeita à ação de engrenamento. Assim, pode afirmar-se que este tipo de defeito produz uma interferência periódica com frequência igual à frequência de rotação da roda dentada que possui o dente partido. Neste artigo apresenta-se uma abordagem teórica dos fenómenos internos do motor de indução na presença de uma interferência periódica da carga mecânica revelando a presença de frequências caraterísticas na corrente absorvida. Uma metodologia de diagnóstico remoto, baseada nos parâmetros de alimentação de um motor, que possibilite monitorizar o funcionamento sem uso de sensores dedicados, tem necessariamente de se apoiar nas grandezas elétricas de alimentação da máquina que, direta ou indiretamente, fornecem informação que poderá ser analisada utilizando software de aquisição e processamento de sinal. Uma metodologia de diagnóstico remoto, baseada nos parâmetros de alimentação de um motor, que possibilite monitorizar o funcionamento sem uso de sensores dedicados, tem necessariamente de se apoiar nas grandezas elétricas de alimentação da máquina que, direta ou indiretamente, fornecem informação que poderá ser analisada utilizando software de aquisição e processamento de sinal. Uma metodologia de diagnóstico remoto, baseada nos parâmetros de alimentação de um motor, que possibilite monitorizar o funcionamento sem uso de sensores dedicados, tem necessariamente de se apoiar nas grandezas elétricas de alimentação da máquina que, direta ou indiretamente, fornecem informação que poderá ser analisada utilizando software de aquisição e processamento de sinal. Dado que a tensão de alimentação do motor é imposta pela rede, pode aceitar-se que esta não contém informação útil ao diagnóstico, embora o seu valor possa sofrer influência da variação da corrente absorvida pelo motor, através das quedas de tensão que esta produz. Considerando a tensão de alimentação trifásica equilibrada e constante, a corrente elétrica absorvida é, de facto, a única variável direta disponível para análise, mas o seu conhecimento permite determinar um conjunto de variáveis que podem fornecer indicações úteis sobre o estado de funcionamento do próprio motor e da carga associada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado Apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Professor Doutor Freitas Santos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ARINC specification 653-2 describes the interface between application software and underlying middleware in a distributed real-time avionics system. The real-time workload in this system comprises of partitions, where each partition consists of one or more processes. Processes incur blocking and preemption overheads and can communicate with other processes in the system. In this work we develop compositional techniques for automated scheduling of such partitions and processes. At present, system designers manually schedule partitions based on interactions they have with the partition vendors. This approach is not only time consuming, but can also result in under utilization of resources. In contrast, the technique proposed in this paper is a principled approach for scheduling ARINC-653 partitions and therefore should facilitate system integration.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In an increasingly competitive and globalized world, companies need effective training methodologies and tools for their employees. However, selecting the most suitable ones is not an easy task. It depends on the requirements of the target group (namely time restrictions), on the specificities of the contents, etc. This is typically the case for training in Lean, the waste elimination manufacturing philosophy. This paper presents and compares two different approaches to lean training methodologies and tools: a simulation game based on a single realistic manufacturing platform, involving production and assembly operations that allows learning by playing; and a digital game that helps understand lean tools. This paper shows that both tools have advantages in terms of trainee motivation and knowledge acquisition. Furthermore, they can be used in a complementary way, reinforcing the acquired knowledge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PTDC/EME–TME/66207/2006 e POSC/EEA-SRI/55386/2004

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rationale and Objectives Computer-aided detection and diagnosis (CAD) systems have been developed in the past two decades to assist radiologists in the detection and diagnosis of lesions seen on breast imaging exams, thus providing a second opinion. Mammographic databases play an important role in the development of algorithms aiming at the detection and diagnosis of mammary lesions. However, available databases often do not take into consideration all the requirements needed for research and study purposes. This article aims to present and detail a new mammographic database. Materials and Methods Images were acquired at a breast center located in a university hospital (Centro Hospitalar de S. João [CHSJ], Breast Centre, Porto) with the permission of the Portuguese National Committee of Data Protection and Hospital's Ethics Committee. MammoNovation Siemens full-field digital mammography, with a solid-state detector of amorphous selenium was used. Results The new database—INbreast—has a total of 115 cases (410 images) from which 90 cases are from women with both breasts affected (four images per case) and 25 cases are from mastectomy patients (two images per case). Several types of lesions (masses, calcifications, asymmetries, and distortions) were included. Accurate contours made by specialists are also provided in XML format. Conclusion The strengths of the actually presented database—INbreast—relies on the fact that it was built with full-field digital mammograms (in opposition to digitized mammograms), it presents a wide variability of cases, and is made publicly available together with precise annotations. We believe that this database can be a reference for future works centered or related to breast cancer imaging.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Swarm Intelligence (SI) is the property of a system whereby the collective behaviors of (unsophisticated) agents interacting locally with their environment cause coherent functional global patterns to emerge. Particle swarm optimization (PSO) is a form of SI, and a population-based search algorithm that is initialized with a population of random solutions, called particles. These particles are flying through hyperspace and have two essential reasoning capabilities: their memory of their own best position and knowledge of the swarm's best position. In a PSO scheme each particle flies through the search space with a velocity that is adjusted dynamically according with its historical behavior. Therefore, the particles have a tendency to fly towards the best search area along the search process. This work proposes a PSO based algorithm for logic circuit synthesis. The results show the statistical characteristics of this algorithm with respect to number of generations required to achieve the solutions. It is also presented a comparison with other two Evolutionary Algorithms, namely Genetic and Memetic Algorithms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As estruturas orgânicas empresariais estão cada vez mais obrigadas a garantir elevados padrões de qualidade de serviços, possibilitando ao mesmo tempo a sustentabilidade das estruturas e ainda, o alinhamento dos investimentos efetuados com as estratégias de negócio. O seu desenvolvimento obriga a que na área das tecnologias de informação e comunicação exista a necessidade de repensar estratégias em vigor, procurando novos modelos, mais ágeis e mais capazes de se enquadrar nestas novas exigências. Neste âmbito, é de esperar que as plataformas de identidade digital tenham um papel determinante no desenvolvimento destes novos modelos, pois são um instrumento único para se implementarem plataformas heterogéneas, intemperáveis, com elevados níveis de segurança e de garantia de controlo no acesso à informação. O trabalho agora apresentado tem como objectivo investigar e desenvolver uma plataforma de identidade digital e uma plataforma de testes, que permitam ao Politécnico do Porto a aquisição de um infraestrutura de Tecnologias de Informação e Comunicação que se torne um instrumento fundamental para o desenvolvimento contínuo, de garantia de qualidade e de sustentabilidade de todos os serviços prestados à sua comunidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, as radiações ionizantes desempenham um papel fundamental nas áreas de diagnóstico e terapia, estando omnipresentes em ambientes hospitalares. Contudo, devido aos efeitos biológicos adversos da radiação, torna-se essencial a protecção dos profissionais de saúde e pacientes. Consequentemente, um array de detetores capazes de produzir um sinal acústico, aquando da presença de radiação ionizante excedendo determinados valores limite e transmissão via wireless das leituras para um sistema central _e de grande interesse prático. Nesta dissertação, foi implementado um sistema capaz de alimentar um array de sensores de radiação para monitorização de diferentes espaços e transmissão das leituras efetuadas via wireless. A aquisição de dados foi realizada, recorrendo à utilização de um conversor analógico-digital. Vários testes de validação foram realizados, através de vários passos para alcançar a concretização do sistema final, nomeadamente testes relativos ao circuito de detecção, módulos de comunicação wireless, bem como o uso de diferentes ambientes de desenvolvimento integrados (IDE). Os resultados destes testes mostram a visualização e gravação adequadas dos dados relativos aos níveis de radiação, bem como a transmissão de dados de forma viável, permitindo a monitorização de espaços sujeitos à presença de radiação ionizante. Desta forma, um array de contadores Geiger-Müller, ligados a módulos wireless XBee open-source e uma placa Arduino, possibilitou a implementação de um sistema viável e de baixo custo para monitorização de radiação ionizante e registar esses mesmos dados para posterior análise.