1000 resultados para Sistemas de classificação automática
Resumo:
Esta tese apresenta duas contribuições distintas na área de sistemas de comunicações sem fi o. Primeiro, é apresentada uma formulação analítica para a análise de desempenho de sistemas utilizando multiplexação multibanda por divisão ortogonal na frequência (MB-OFDM, do inglês Multi-Band Orthogonal Frequency-Division Multiplexing ) com um ltro notch para mitigar a interferência em banda estreita causada por outros sistemas que operam dentro da faixa de frequências alocada para sistemas UWB. Em seguida, um novo front end para classificação automática de modulações com o uso de aprendizado discriminativo é proposto. Esse front end pode ser utilizado por qualquer classi cador discriminativo e consiste em ordenar magnitude e fase do símbolos recebidos. Os resultados obtidos pelo classi cador proposto mostraram-se competitivos com outros algoritmos já existentes na literatura.
Resumo:
Modern wireless systems employ adaptive techniques to provide high throughput while observing desired coverage, Quality of Service (QoS) and capacity. An alternative to further enhance data rate is to apply cognitive radio concepts, where a system is able to exploit unused spectrum on existing licensed bands by sensing the spectrum and opportunistically access unused portions. Techniques like Automatic Modulation Classification (AMC) could help or be vital for such scenarios. Usually, AMC implementations rely on some form of signal pre-processing, which may introduce a high computational cost or make assumptions about the received signal which may not hold (e.g. Gaussianity of noise). This work proposes a new method to perform AMC which uses a similarity measure from the Information Theoretic Learning (ITL) framework, known as correntropy coefficient. It is capable of extracting similarity measurements over a pair of random processes using higher order statistics, yielding in better similarity estimations than by using e.g. correlation coefficient. Experiments carried out by means of computer simulation show that the technique proposed in this paper presents a high rate success in classification of digital modulation, even in the presence of additive white gaussian noise (AWGN)
Resumo:
The increasing demand for high performance wireless communication systems has shown the inefficiency of the current model of fixed allocation of the radio spectrum. In this context, cognitive radio appears as a more efficient alternative, by providing opportunistic spectrum access, with the maximum bandwidth possible. To ensure these requirements, it is necessary that the transmitter identify opportunities for transmission and the receiver recognizes the parameters defined for the communication signal. The techniques that use cyclostationary analysis can be applied to problems in either spectrum sensing and modulation classification, even in low signal-to-noise ratio (SNR) environments. However, despite the robustness, one of the main disadvantages of cyclostationarity is the high computational cost for calculating its functions. This work proposes efficient architectures for obtaining cyclostationary features to be employed in either spectrum sensing and automatic modulation classification (AMC). In the context of spectrum sensing, a parallelized algorithm for extracting cyclostationary features of communication signals is presented. The performance of this features extractor parallelization is evaluated by speedup and parallel eficiency metrics. The architecture for spectrum sensing is analyzed for several configuration of false alarm probability, SNR levels and observation time for BPSK and QPSK modulations. In the context of AMC, the reduced alpha-profile is proposed as as a cyclostationary signature calculated for a reduced cyclic frequencies set. This signature is validated by a modulation classification architecture based on pattern matching. The architecture for AMC is investigated for correct classification rates of AM, BPSK, QPSK, MSK and FSK modulations, considering several scenarios of observation length and SNR levels. The numerical results of performance obtained in this work show the eficiency of the proposed architectures
Resumo:
Neste trabalho é apresentado um modelo de redes neurais que será utilizado como ferramenta para uso no planejamento energético e na construção de cenários energéticos através da identificação e agrupamento de pixels representativos de classes de água, vegetação e antropização no entorno do reservatório de Tucuruí, Estado do Pará (bacia do rio Tocantins). Para o estudo, foram utilizadas fotografias aéreas ortorretificadas e um recorte da imagem do satélite Landsat, ambos obtidos em agosto de 2001 e classificados utilizando a métrica da mínima distância no software Matlab 7.3.0 (Matrix Laboratory - software de matemática aplicada) e no Arcview 3.2a (programa de Sistemas de Informações Geográficas). Para classificação da área no Matlab, foram utilizadas redes neurais competitivas, mais especificamente as redes de Kohonen que são caracterizadas por realizar um mapeamento de um espaço de dimensão n (número de entradas) para um espaço de dimensão m (número de saídas). Os resultados obtidos no classificador utilizando rede neural e no classificador do Arcview foram semelhantes, mas houve uma divergência no que diz respeito à imagem de alta e média resolução que pode ser justificada pelo fato de que a imagem de alta resolução espacial ocasiona muita variação espectral em algumas feições, gerando dificuldades nas classificações. Esse classificador automático é uma ferramenta importante para identificar oportunidades e potenciais a serem desenvolvidos na construção de cenários energéticos programados. Os resultados deste trabalho confirmam que a imagem de média resolução ainda é a mais indicada para resolver a maioria dos problemas que envolvem identificação de cobertura do solo para utilização em planejamento energético.
Resumo:
Esta tese tem por objectivo o desenho e avaliação de um sistema de contagem e classificação de veículos automóveis em tempo-real e sem fios. Pretende, também, ser uma alternativa aos actuais equipamentos, muito intrusivos nas vias rodoviárias. Esta tese inclui um estudo sobre as comunicações sem fios adequadas a uma rede de equipamentos sensores rodoviários, um estudo sobre a utilização do campo magnético como meio físico de detecção e contagem de veículos e um estudo sobre a autonomia energética dos equipamentos inseridos na via, com recurso, entre outros, à energia solar. O projecto realizado no âmbito desta tese incorpora, entre outros, a digitalização em tempo real da assinatura magnética deixada pela passagem de um veículo, no campo magnético da Terra, o respectivo envio para servidor via rádio e WAN, Wide Area Network, e o desenvolvimento de software tendo por base a pilha de protocolos ZigBee. Foram desenvolvidas aplicações para o equipamento sensor, para o coordenador, para o painel de controlo e para a biblioteca de Interface de um futuro servidor aplicacional. O software desenvolvido para o equipamento sensor incorpora ciclos de detecção e digitalização, com pausas de adormecimento de baixo consumo, e a activação das comunicações rádio durante a fase de envio, assegurando assim uma estratégia de poupança energética. Os resultados obtidos confirmam a viabilidade desta tecnologia para a detecção e contagem de veículos, assim como para a captura de assinatura usando magnetoresistências. Permitiram ainda verificar o alcance das comunicações sem fios com equipamento sensor embebido no asfalto e confirmar o modelo de cálculo da superfície do painel solar bem como o modelo de consumo energético do equipamento sensor.
Resumo:
Ao longo dos últimos anos tem-se assistido a uma rápida evolução dos dispositivos móveis. Essa evolução tem sido mais intensa no poder de processamento, na resolução e qualidade das câmaras e na largura de banda das redes móveis de nova geração. Outro aspecto importante é o preço, pois cada vez mais existem dispositivos móveis avançados a um preço acessível, o que facilita a adopção destes equipamentos por parte dos utilizadores. Estes factores contribuem para que o número de utilizadores com “computadores de bolso” tenda a aumentar, possibilitando cada vez mais a criação de ferramentas com maior complexidade que tirem partido das características desses equipamentos. Existem muitas aplicações que exploram estas características para facilitar o trabalho aos utilizadores. Algumas dessas aplicações conseguem retirar informação do mundo físico e fazer algum tipo de processamento, como por exemplo, um leitor de códigos QR ou um OCR (Optical Character Recognizer). Aproveitando o potencial dos dispositivos móveis actuais, este trabalho descreve o estudo, a implementação e a avaliação de uma aplicação de realidade aumentada para adquirir e gerir recibos em papel de forma automática e inteligente. A aplicação utiliza a câmara do dispositivo para adquirir imagens dos recibos de forma a poder processá-las recorrendo a técnicas de processamento de imagem. Tendo uma imagem processada do recibo é efectuado um reconhecimento óptico de caracteres para extracção de informação e é utilizada uma técnica de classificação para atribuir uma classe ao documento. Para um melhor desempenho do classificador é utilizada uma estratégia de aprendizagem incremental. Após a correcta classificação é possível visualizar o recibo com informação adicional (realidade aumentada). O trabalho proposto inclui também a avaliação da interface e dos algoritmos desenvolvidos.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação de Mestrado em Engenharia Informática
Resumo:
RESUMO - Caracterização do problema: A inadequação e ineficácia do sistema de financiamento ―por diária‖ dos cuidados de reabilitação resultaram na necessidade de criação de sistemas de classificação de doentes de reabilitação em regime de internamento, em muitos países. Também em Portugal é necessário implementar um sistema de financiamento, baseado num sistema de classificação de doentes, ajustado pela complexidade e necessidade de cuidados destes doentes. Objectivos: Caracterização dos cuidados de reabilitação em Portugal, e do actual sistema de financiamento destes doentes; realização de uma revisão de literatura dos sistemas de classificação de doentes de reabilitação já existentes, de modo a compreender quais as variáveis de agrupamento utilizadas e qual a capacidade de previsão dos custos destes mesmos sistemas; perceber a importância da implementação de um dos sistemas de classificação em Portugal, e quais as suas vantagens. Metodologia: Da revisão de literatura efectuada, foram encontrados quatro sistemas de classificação de doentes implementados e/ou em vias de serem implementados como base para um sistema de financiamento, nos EUA, Austrália e Canadá. Foi efectuada uma extensa caracterização e análise crítica dos mesmos. Conclusões: Podemos concluir, que dos poucos sistemas de classificação de doentes de reabilitação existentes, optou-se pelo estudo de uma possível adopção do sistema norte-americano para a realidade portuguesa, por ser o único sistema de classificação já utilizado para fins de financiamento para todos os doentes de reabilitação desde 2002, o que inclui mais variáveis de decisão na classificação dos doentes, e o que permite a maior previsão dos custos dos doentes em termos percentuais.
Resumo:
Trata-se de uma abordagem teórica sobre diferentes instrumentos de medida assistenciais e gerenciais utilizados para a determinação da gravidade dos pacientes, quantificação das demandas de cuidados, estimativa da real necessidade de profissionais de enfermagem e custo da assistência intensiva, o que os torna recursos facilitadores de gestão. Neste artigo, apresentam-se diferentes instrumentos de medida voltados à classificação de pacientes em unidades de Terapia Intensiva (UTIs), considerando-se tanto os índices de gravidade quanto os de carga de trabalho de enfermagem. Discutem-se facilidades e dificuldades inerentes à implementação desses instrumentos.
Resumo:
A Bacia do Alto do Descoberto é importante fonte de água para o Distrito Federal. Essa bacia tem apresentado ao longo dos anos expansão agrícola e urbana em detrimento das áreas de vegetação natural. A ocupação inadequada, assim como a falta de planejamento do uso e ocupação do solo, pode levar a alterações do escoamento superficial e, consequentemente, do ciclo hidrológico, a feições erosivas, à contaminação dos mananciais superficiais e subterrâneos e ao desequilíbrio do ecossistema da região. Portanto, o monitoramento e a análise do uso e ocupação do solo são imprescindíveis na prevenção desses impactos e na manutenção dos mananciais. Dessa forma, este estudo tem como objetivo o mapeamento e a análise comparativa do uso e ocupação do solo da Bacia do Alto do Descoberto entre os anos 1994 e 2011. As classificações de uso e ocupação do solo foram elaboradas utilizando um classificador orientado ao objeto baseado em regras e lógica nebulosa, permitindo uma análise dos avanços do uso do solo e a perda da cobertura vegetal da bacia. O sistema de classificação utilizado foi considerado bem-sucedido, com índice de exatidão temática (Kappa) de 0,64. Apesar de ainda haver algumas confusões temáticas no processo de classificação, as análises comparativas entre as classes temáticas dos mapas dos referidos anos evidenciaram a forte expansão agrícola da região em aproximadamente 11% da área da bacia, bem como uma perda de vegetação natural.
Resumo:
One of the main problems in Computer Vision and Close Range Digital Photogrammetry is 3D reconstruction. 3D reconstruction with structured light is one of the existing techniques and which still has several problems, one of them the identification or classification of the projected targets. Approaching this problem is the goal of this paper. An area based method called template matching was used for target classification. This method performs detection of area similarity by correlation, which measures the similarity between the reference and search windows, using a suitable correlation function. In this paper the modified cross covariance function was used, which presented the best results. A strategy was developed for adaptative resampling of the patterns, which solved the problem of deformation of the targets due to object surface inclination. Experiments with simulated and real data were performed in order to assess the efficiency of the proposed methodology for target detection. The results showed that the proposed classification strategy works properly, identifying 98% of targets in plane surfaces and 93% in oblique surfaces.
Resumo:
This study explores, in 3 steps, how the 3 main library classification systems, the Library of Congress Classification, the Dewey Decimal Classification, and the Universal Decimal Classification, cover human knowledge. First, we mapped the knowledge covered by the 3 systems. We used the “10 Pillars of Knowledge: Map of Human Knowledge”, which comprises 10 pillars, as an evaluative model. We mapped all the subject-based classes and subclasses that are part of the first 2 levels of the 3 hierarchical structures. Then, we zoomed into each of the 10 pillars and analyzed how the three systems cover the 10 knowledge domains. Finally, we focused on the 3 library systems. Based on the way each one of them covers the 10 knowledge domains, it is evident that they failed to adequately and systematically present contemporary human knowledge. They are unsystematic and biased, and, at the top 2 levels of the hierarchical structures, they are incomplete.
Resumo:
Programa de doctorado: Sanidad animal y seguridad alimentarias.
Resumo:
La principal aportación de esta tesis doctoral ha sido la propuesta y evaluación de un sistema de traducción automática que permite la comunicación entre personas oyentes y sordas. Este sistema está formado a su vez por dos sistemas: un traductor de habla en español a Lengua de Signos Española (LSE) escrita y que posteriormente se representa mediante un agente animado; y un generador de habla en español a partir de una secuencia de signos escritos mediante glosas. El primero de ellos consta de un reconocedor de habla, un módulo de traducción entre lenguas y un agente animado que representa los signos en LSE. El segundo sistema está formado por una interfaz gráfica donde se puede especificar una secuencia de signos mediante glosas (palabras en mayúscula que representan los signos), un módulo de traducción entre lenguas y un conversor texto-habla. Para el desarrollo del sistema de traducción, en primer lugar se ha generado un corpus paralelo de 7696 frases en español con sus correspondientes traducciones a LSE. Estas frases pertenecen a cuatro dominios de aplicación distintos: la renovación del Documento Nacional de Identidad, la renovación del permiso de conducir, un servicio de información de autobuses urbanos y la recepción de un hotel. Además, se ha generado una base de datos con más de 1000 signos almacenados en cuatro sistemas distintos de signo-escritura. En segundo lugar, se ha desarrollado un módulo de traducción automática que integra dos técnicas de traducción con una estructura jerárquica: la primera basada en memoria y la segunda estadística. Además, se ha implementado un módulo de pre-procesamiento de las frases en español que, mediante su incorporación al módulo de traducción estadística, permite mejorar significativamente la tasa de traducción. En esta tesis también se ha mejorado la versión de la interfaz de traducción de LSE a habla. Por un lado, se han incorporado nuevas características que mejoran su usabilidad y, por otro, se ha integrado un traductor de lenguaje SMS (Short Message Service – Servicio de Mensajes Cortos) a español, que permite especificar la secuencia a traducir en lenguaje SMS, además de mediante una secuencia de glosas. El sistema de traducción propuesto se ha evaluado con usuarios reales en dos dominios de aplicación: un servicio de información de autobuses de la Empresa Municipal de Transportes de Madrid y la recepción del Hotel Intur Palacio San Martín de Madrid. En la evaluación estuvieron implicadas personas sordas y empleados de los dos servicios. Se extrajeron medidas objetivas (obtenidas por el sistema automáticamente) y subjetivas (mediante cuestionarios a los usuarios). Los resultados fueron muy positivos gracias a la opinión de los usuarios de la evaluación, que validaron el funcionamiento del sistema de traducción y dieron información valiosa para futuras líneas de trabajo. Por otro lado, tras la integración de cada uno de los módulos de los dos sistemas de traducción (habla-LSE y LSE-habla), los resultados de la evaluación y la experiencia adquirida en todo el proceso, una aportación importante de esta tesis doctoral es la propuesta de metodología de desarrollo de sistemas de traducción de habla a lengua de signos en los dos sentidos de la comunicación. En esta metodología se detallan los pasos a seguir para desarrollar el sistema de traducción para un nuevo dominio de aplicación. Además, la metodología describe cómo diseñar cada uno de los módulos del sistema para mejorar su flexibilidad, de manera que resulte más sencillo adaptar el sistema desarrollado a un nuevo dominio de aplicación. Finalmente, en esta tesis se analizan algunas técnicas para seleccionar las frases de un corpus paralelo fuera de dominio para entrenar el modelo de traducción cuando se quieren traducir frases de un nuevo dominio de aplicación; así como técnicas para seleccionar qué frases del nuevo dominio resultan más interesantes que traduzcan los expertos en LSE para entrenar el modelo de traducción. El objetivo es conseguir una buena tasa de traducción con la menor cantidad posible de frases. ABSTRACT The main contribution of this thesis has been the proposal and evaluation of an automatic translation system for improving the communication between hearing and deaf people. This system is made up of two systems: a Spanish into Spanish Sign Language (LSE – Lengua de Signos Española) translator and a Spanish generator from LSE sign sequences. The first one consists of a speech recognizer, a language translation module and an avatar that represents the sign sequence. The second one is made up an interface for specifying the sign sequence, a language translation module and a text-to-speech conversor. For the translation system development, firstly, a parallel corpus has been generated with 7,696 Spanish sentences and their LSE translations. These sentences are related to four different application domains: the renewal of the Identity Document, the renewal of the driver license, a bus information service and a hotel reception. Moreover, a sign database has been generated with more than 1,000 signs described in four different signwriting systems. Secondly, it has been developed an automatic translation module that integrates two translation techniques in a hierarchical structure: the first one is a memory-based technique and the second one is statistical. Furthermore, a pre processing module for the Spanish sentences has been implemented. By incorporating this pre processing module into the statistical translation module, the accuracy of the translation module improves significantly. In this thesis, the LSE into speech translation interface has been improved. On the one hand, new characteristics that improve its usability have been incorporated and, on the other hand, a SMS language into Spanish translator has been integrated, that lets specifying in SMS language the sequence to translate, besides by specifying a sign sequence. The proposed translation system has been evaluated in two application domains: a bus information service of the Empresa Municipal de Transportes of Madrid and the Hotel Intur Palacio San Martín reception. This evaluation has involved both deaf people and services employees. Objective measurements (given automatically by the system) and subjective measurements (given by user questionnaires) were extracted during the evaluation. Results have been very positive, thanks to the user opinions during the evaluation that validated the system performance and gave important information for future work. Finally, after the integration of each module of the two translation systems (speech- LSE and LSE-speech), obtaining the evaluation results and considering the experience throughout the process, a methodology for developing speech into sign language (and vice versa) into a new domain has been proposed in this thesis. This methodology includes the steps to follow for developing the translation system in a new application domain. Moreover, this methodology proposes the way to improve the flexibility of each system module, so that the adaptation of the system to a new application domain can be easier. On the other hand, some techniques are analyzed for selecting the out-of-domain parallel corpus sentences in order to train the translation module in a new domain; as well as techniques for selecting which in-domain sentences are more interesting for translating them (by LSE experts) in order to train the translation model.