917 resultados para Localização automática
Resumo:
O problema que justifica o presente estudo refere-se à falta de semântica nos mecanismos de busca na Web. Para este problema, o consórcio W3 vem desenvolvendo tecnologias que visam construir uma Web Semântica. Entre estas tecnologias, estão as ontologias de domínio. Neste sentido, o objetivo geral desta dissertação é discutir as possibilidades de se imprimir semântica às buscas nos agregadores de notícia da Web. O objetivo específico é apresentar uma aplicação que usa uma classificação semi-automática de notícias, reunindo, para tanto, as tecnologias de busca da área de recuperação de informação com as ontologias de domínio. O sistema proposto é uma aplicação para a Web capaz de buscar notícias sobre um domínio específico em portais de informação. Ela utiliza a API do Google Maps V1 para a localização georreferenciada da notícia, sempre que esta informação estiver disponível. Para mostrar a viabilidade da proposta, foi desenvolvido um exemplo apoiado em uma ontologia para o domínio de chuvas e suas consequências. Os resultados obtidos por este novo Feed de base ontológica são alocados em um banco de dados e disponibilizados para consulta via Web. A expectativa é que o Feed proposto seja mais relevante em seus resultados do que um Feed comum. Os resultados obtidos com a união de tecnologias patrocinadas pelo consórcio W3 (XML, RSS e ontologia) e ferramentas de busca em página Web foram satisfatórios para o propósito pretendido. As ontologias mostram-se como ferramentas de usos múltiplos, e seu valor de análise em buscas na Web pode ser ampliado com aplicações computacionais adequadas para cada caso. Como no exemplo apresentado nesta dissertação, à palavra chuva agregaram-se outros conceitos, que estavam presentes nos desdobramentos ocasionados por ela. Isto realçou a ligação do evento chuva com as consequências que ela provoca - ação que só foi possível executar através de um recorte do conhecimento formal envolvido.
Resumo:
Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.
Resumo:
ES]El proyecto descrito en este documento consiste en la investigación sobre la viabilidad de detección automática de pulso y respiración a partir de la señal de aceleración, medida mediante un acelerómetro posicionado bien en la carótida o en el pecho del paciente. El motivo de la utilización de la aceleración está principalmente en el bajo costo y por la tecnología sencilla de los acelerómetros. En este documento se explica cómo se ha montado una plataforma para la adquisición de las señales de aceleración y el electrocardiograma emitido por el corazón, en sujetos sanos. Con la base de señales adquirida se ha diseñado un método basado en el dominio de la frecuencia para detectar la presencia de pulso y respiración. Los resultados son prometedores y confirman la posibilidad de desarrollar estos detectores. Las herramientas desarrolladas podrán ser utilizadas para análisis futuros y para seguir avanzando en este estudio.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.
Resumo:
Desde a descoberta do estado quasicristalino por Daniel Shechtman et al. em 1984 e da fabricação por Roberto Merlin et al. de uma superrede artificial de GaAs/ AlAs em 1985 com características da sequência de Fibonacci, um grande número de trabalhos teóricos e experimentais tem relatado uma variedade de propriedades interessantes no comportamento de sistemas aperiódicos. Do ponto de vista teórico, é bem sabido que a cadeia de Fibonacci em uma dimensão se constitui em um protótipo de sucesso para a descrição do estado quasicristalino de um sólido. Dependendo da regra de inflação, diferentes tipos de estruturas aperiódicas podem ser obtidas. Esta diversidade originou as chamadas regras metálicas e devido à possibilidade de tratamento analítico rigoroso este modelo tem sido amplamente estudado. Neste trabalho, propriedades de localização em uma dimensão são analisadas considerando-se um conjunto de regras metálicas e o modelo de ligações fortes de banda única. Considerando-se o Hamiltoniano de ligações fortes com um orbital por sítio obtemos um conjunto de transformações relativas aos parâmetros de dizimação, o que nos permitiu calcular as densidades de estados (DOS) para todas as configurações estudadas. O estudo detalhado da densidade de estados integrada (IDOS) para estes casos, mostra o surgimento de plateaux na curva do número de ocupação explicitando o aparecimento da chamada escada do diabo" e também o caráter fractal destas estruturas. Estudando o comportamento da variação da energia em função da variação da energia de hopping, construímos padrões do tipo borboletas de Hofstadter, que simulam o efeito de um campo magnético atuando sobre o sistema. A natureza eletrônica dos auto estados é analisada a partir do expoente de Lyapunov (γ), que está relacionado com a evolução da função de onda eletrônica ao longo da cadeia unidimensional. O expoente de Lyapunov está relacionado com o inverso do comprimento de localização (ξ= 1 /γ), sendo nulo para os estados estendidos e positivo para estados localizados. Isto define claramente as posições dos principais gaps de energia do sistema. Desta forma, foi possível analisar o comportamento autossimilar de cadeias com diferentes regras de formação. Analisando-se o espectro de energia em função do número de geração de cadeias que seguem as regras de ouro e prata foi feito, obtemos conjuntos do tipo-Cantor, que nos permitiu estudar o perfil do calor específico de uma cadeia e Fibonacci unidimensional para diversas gerações
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
Nesta dissertação, apresentamos resultados da análise de um gás de elétrons bidimensional, confinado em um poço quântico parabólico de Ga_(1-x)Al_(x)As com campo magnético aplicado inclinado e intenso. Mostramos uma solução analítica exata para o caso de um gás de elétrons não interagente e provamos que o fator de Landé efetivo g*, que neste caso varia com a posição devido à própria variação da concentração de Al na liga GaAlAs, também contribui com um termo parabólico nas frequências normais, tornando-as dependente do spin. O termo normal do splitting Zeeman aparece, no entanto, com um fator g dado por aquele do GaAs. Indo além desse tratamento, incluímos um campo elétrico externo, aplicado paralelamente a direção de crescimento, de modo a modular a distribuição de cargas dentro do poço, e com isso controlar externamente os efeitos dos cruzamentos dos níveis. Calculamos numericamente os níveis de energia no poço parabólico quântico, variando o campo magnético aplicado e a inclinação do campo.
Resumo:
Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.
Resumo:
O trabalho apresenta uma metodologia automatizada em Sistemas de Informações Geográficas que visa mensurar a topografia de bacias hidrográficas por meio da obtenção de parâmetros que denotam suas características geomorfológicas, fornecendo informações importantes sobre a capacidade de suporte das mesmas aos diversos usos da terra.
Resumo:
2006
Resumo:
2005
Resumo:
Problemas de localização. Descrição do algoritmo genético construtivo.