944 resultados para Signals and signaling
Resumo:
This paper proposes a wireless EEG acquisition platform based on Open Multimedia Architecture Platform (OMAP) embedded system. A high-impedance active dry electrode was tested for improving the scalp- electrode interface. It was used the sigma-delta ADS1298 analog-to-digital converter, and developed a “kernelspace” character driver to manage the communications between the converter unit and the OMAP’s ARM core. The acquired EEG signal data is processed by a “userspace” application, which accesses the driver’s memory, saves the data to a SD-card and transmits them through a wireless TCP/IP-socket to a PC. The electrodes were tested through the alpha wave replacement phenomenon. The experimental results presented the expected alpha rhythm (8-13 Hz) reactiveness to the eyes opening task. The driver spends about 725 μs to acquire and store the data samples. The application takes about 244 μs to get the data from the driver and 1.4 ms to save it in the SD-card. A WiFi throughput of 12.8Mbps was measured which results in a transmission time of 5 ms for 512 kb of data. The embedded system consumes about 200 mAh when wireless off and 400 mAh when it is on. The system exhibits a reliable performance to record EEG signals and transmit them wirelessly. Besides the microcontroller-based architectures, the proposed platform demonstrates that powerful ARM processors running embedded operating systems can be programmed with real-time constrains at the kernel level in order to control hardware, while maintaining their parallel processing abilities in high level software applications.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
Este trabalho utiliza uma estrutura pin empilhada, baseada numa liga de siliceto de carbono amorfo hidrogenado (a-Si:H e/ou a-SiC:H), que funciona como filtro óptico na zona visível do espectro electromagnético. Pretende-se utilizar este dispositivo para realizar a demultiplexagem de sinais ópticos e desenvolver um algoritmo que permita fazer o reconhecimento autónomo do sinal transmitido em cada canal. O objectivo desta tese visa implementar um algoritmo que permita o reconhecimento autónomo da informação transmitida por cada canal através da leitura da fotocorrente fornecida pelo dispositivo. O tema deste trabalho resulta das conclusões de trabalhos anteriores, em que este dispositivo e outros de configuração idêntica foram analisados, de forma a explorar a sua utilização na implementação da tecnologia WDM. Neste trabalho foram utilizados três canais de transmissão (Azul – 470 nm, Verde – 525 nm e Vermelho – 626 nm) e vários tipos de radiação de fundo. Foram realizadas medidas da resposta espectral e da resposta temporal da fotocorrente do dispositivo, em diferentes condições experimentais. Variou-se o comprimento de onda do canal e o comprimento de onda do fundo aplicado, mantendo-se constante a intensidade do canal e a frequência de transmissão. Os resultados obtidos permitiram aferir sobre a influência da presença da radiação de fundo e da tensão aplicada ao dispositivo, usando diferentes sequências de dados transmitidos nos vários canais. Verificou-se, que sob polarização inversa, a radiação de fundo vermelho amplifica os valores de fotocorrente do canal azul e a radiação de fundo azul amplifica o canal vermelho e verde. Para polarização directa, apenas a radiação de fundo azul amplifica os valores de fotocorrente do canal vermelho. Enquanto para ambas as polarizações, a radiação de fundo verde, não tem uma grande influência nos restantes canais. Foram implementados dois algoritmos para proceder ao reconhecimento da informação de cada canal. Na primeira abordagem usou-se a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa e directa. Pela comparação das duas medidas desenvolveu-se e testou-se um algoritmo que permite o reconhecimento dos canais individuais. Numa segunda abordagem procedeu-se ao reconhecimento da informação de cada canal mas com aplicação de radiação de fundo, tendo-se usado a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa sem aplicação de radiação de fundo com a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa com aplicação de radiação de fundo. Pela comparação destas duas medidas desenvolveu-se e testou-se o segundo algoritmo que permite o reconhecimento dos canais individuais com base na aplicação de radiação de fundo.
Resumo:
In this paper we present results on the optimization of device architectures for colour and imaging applications, using a device with a TCO/pinpi'n/TCO configuration. The effect of the applied voltage on the color selectivity is discussed. Results show that the spectral response curves demonstrate rather good separation between the red, green and blue basic colors. Combining the information obtained under positive and negative applied bias a colour image is acquired without colour filters or pixel architecture. A low level image processing algorithm is used for the colour image reconstruction.
Resumo:
This paper describes an implementation of a long distance echo canceller, operating on full-duplex with hands-free and in real-time with a single Digital Signal Processor (DSP). The proposed solution is based on short length adaptive filters centered on the positions of the most significant echoes, which are tracked by time delay estimators, for which we use a new approach. To deal with double talking situations a speech detector is employed. The floating-point DSP TMS320C6713 from Texas Instruments is used with software written in C++, with compiler optimizations for fast execution. The resulting algorithm enables long distance echo cancellation with low computational requirements, suited for embbeded systems. It reaches greater echo return loss enhancement and shows faster convergence speed when compared to the conventional approach. The experimental results approach the CCITT G.165 recommendation levels.
Resumo:
Thesis submitted in the fulfilment of the requirements for the Degree of Master in Electronic and Telecomunications Engineering
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.
Resumo:
This paper suggests an analysis of "Inanimate Alice" by Kate Pullinger, Chris Joseph and Ian Harper as an example of a transmedia narrative that triggers a new reading experience whilst proposing a literary alterity between reading and performance. Narrative experiences that elect the visual plasticity, interchanging games and tactility as drivers of the creative process are not new. Yet, narrative experiences, which have been created in the gap between reality and fiction, have found on the digital realm the perfect environment to multiple hybrid experiences. Bearing in mind Walter Benjamin’s concept of Erlebnis and Erfahrung, a critical analysis of this digital fiction tries to illustrate how literary art finds its space and time in a metamorphosed continuum only activated by the “patient reader”. All the multimedia hybrids, which this digital literary work may have, challenge readers to interpret different signals and poetic structures that most of readers might not be accustomed to; however even among a cognitive dissonance, meaning is found and reading happens only if time, space and attention are available. All possible transmedia literacies can only respond to this experience of online reading, if they are able to focus and draw attention not to a simple new behaviour or a single new practice, but to a demanding state of affairs that assemble different objective and subjective value forms.
Resumo:
The behavior of mechanical manipulators with backlash is analyzed. In order to acquire and study the signals an experimental setup is implemented. The signal processing capabilities of the wavelets are used for de-noising the experimental signals and the energy of the obtained components is analyzed. To evaluate the backlash effect upon the robotic system, it is proposed an index based on the pseudo phase plane representation. Several tests are developed that demonstrate the coherence of the results.
Resumo:
In practice the robotic manipulators present some degree of unwanted vibrations. The advent of lightweight arm manipulators, mainly in the aerospace industry, where weight is an important issue, leads to the problem of intense vibrations. On the other hand, robots interacting with the environment often generate impacts that propagate through the mechanical structure and produce also vibrations. In order to analyze these phenomena a robot signal acquisition system was developed. The manipulator motion produces vibrations, either from the structural modes or from endeffector impacts. The instrumentation system acquires signals from several sensors that capture the joint positions, mass accelerations, forces and moments, and electrical currents in the motors. Afterwards, an analysis package, running off-line, reads the data recorded by the acquisition system and extracts the signal characteristics. Due to the multiplicity of sensors, the data obtained can be redundant because the same type of information may be seen by two or more sensors. Because of the price of the sensors, this aspect can be considered in order to reduce the cost of the system. On the other hand, the placement of the sensors is an important issue in order to obtain the suitable signals of the vibration phenomenon. Moreover, the study of these issues can help in the design optimization of the acquisition system. In this line of thought a sensor classification scheme is presented. Several authors have addressed the subject of the sensor classification scheme. White (White, 1987) presents a flexible and comprehensive categorizing scheme that is useful for describing and comparing sensors. The author organizes the sensors according to several aspects: measurands, technological aspects, detection means, conversion phenomena, sensor materials and fields of application. Michahelles and Schiele (Michahelles & Schiele, 2003) systematize the use of sensor technology. They identified several dimensions of sensing that represent the sensing goals for physical interaction. A conceptual framework is introduced that allows categorizing existing sensors and evaluates their utility in various applications. This framework not only guides application designers for choosing meaningful sensor subsets, but also can inspire new systems and leads to the evaluation of existing applications. Today’s technology offers a wide variety of sensors. In order to use all the data from the diversity of sensors a framework of integration is needed. Sensor fusion, fuzzy logic, and neural networks are often mentioned when dealing with problem of combing information from several sensors to get a more general picture of a given situation. The study of data fusion has been receiving considerable attention (Esteban et al., 2005; Luo & Kay, 1990). A survey of the state of the art in sensor fusion for robotics can be found in (Hackett & Shah, 1990). Henderson and Shilcrat (Henderson & Shilcrat, 1984) introduced the concept of logic sensor that defines an abstract specification of the sensors to integrate in a multisensor system. The recent developments of micro electro mechanical sensors (MEMS) with unwired communication capabilities allow a sensor network with interesting capacity. This technology was applied in several applications (Arampatzis & Manesis, 2005), including robotics. Cheekiralla and Engels (Cheekiralla & Engels, 2005) propose a classification of the unwired sensor networks according to its functionalities and properties. This paper presents a development of a sensor classification scheme based on the frequency spectrum of the signals and on a statistical metrics. Bearing these ideas in mind, this paper is organized as follows. Section 2 describes briefly the robotic system enhanced with the instrumentation setup. Section 3 presents the experimental results. Finally, section 4 draws the main conclusions and points out future work.
Resumo:
Dependability is a critical factor in computer systems, requiring high quality validation & verification procedures in the development stage. At the same time, digital devices are getting smaller and access to their internal signals and registers is increasingly complex, requiring innovative debugging methodologies. To address this issue, most recent microprocessors include an on-chip debug (OCD) infrastructure to facilitate common debugging operations. This paper proposes an enhanced OCD infrastructure with the objective of supporting the verification of fault-tolerant mechanisms through fault injection campaigns. This upgraded on-chip debug and fault injection (OCD-FI) infrastructure provides an efficient fault injection mechanism with improved capabilities and dynamic behavior. Preliminary results show that this solution provides flexibility in terms of fault triggering and allows high speed real-time fault injection in memory elements
Resumo:
Behavioral biometrics is one of the areas with growing interest within the biosignal research community. A recent trend in the field is ECG-based biometrics, where electrocardiographic (ECG) signals are used as input to the biometric system. Previous work has shown this to be a promising trait, with the potential to serve as a good complement to other existing, and already more established modalities, due to its intrinsic characteristics. In this paper, we propose a system for ECG biometrics centered on signals acquired at the subject's hand. Our work is based on a previously developed custom, non-intrusive sensing apparatus for data acquisition at the hands, and involved the pre-processing of the ECG signals, and evaluation of two classification approaches targeted at real-time or near real-time applications. Preliminary results show that this system leads to competitive results both for authentication and identification, and further validate the potential of ECG signals as a complementary modality in the toolbox of the biometric system designer.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologiea da Universidade Nova de Lisboa, para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Eletrotécnica Ramo de Automação e Eletrónica Industrial