849 resultados para Inteligência artificial - Engenharia de Aplicações
Resumo:
Esta tese enfoca o estudo de métodos para compensação de harmônicos em sistemas de energia elétrica e aborda diversos aspectos relacionados à presença de harmônicos nos mesmos, como a apresentação de conceitos e definições em sistemas não-senoidais e estratégias de compensação de potência. Enfatiza-se neste estudo, exemplificado por meio de medições e simulações realizadas, a influência da forma de onda de alimentação sobre cargas não-lineares; a interação harmônica entre a tensão de suprimento e a corrente das cargas, devido à impedância série do sistema; e a influência mútua entre cargas não-lineares em paralelo, como possível forma de atenuação de harmônicos. Para simular e predizer o impacto causado por cargas não-lineares em um sistema, assim como a implementação de ações para mitigar esses impactos, visando à melhoria da qualidade da energia, é necessário o conhecimento das respostas das mesmas. Como produto do presente trabalho, destacam-se as técnicas desenvolvidas para a modelagem de cargas nãolineares sob diferentes condições de alimentação, em especial o uso de técnicas de inteligência computacional, como o sistema neuro-fuzzy e as redes neurais artificiais; assim como o emprego da série de Volterra para predição do comportamento das cargas.
Resumo:
O projeto de sistemas de comunicações móveis requer o conhecimento do ambiente em que será implementado. Para tanto, busca-se a exatidão na predição de propagação do sinal através do uso de modelos de predição. O presente trabalho propõe um modelo empírico para a estimativa da intensidade de sinal recebida em ambientes indoor, e que apresentam mais de uma fonte transmissora, utilizando Sistema de Antenas Distribuídas (DAS). O método apresenta uma generalização para o caso de múltiplas fontes, também chamado multifontes, e como caso particular com apenas uma fonte. A modelagem é feita através do uso de radiais partindo de cada transmissor, com o intuito de considerar a variabilidade do sinal em ambientes indoor. Estas várias perturbações no sinal, que causam desvanecimento rápido são caracterizadas através das distribuições estatísticas de desvanecimento. As mais utilizadas como a de Rayleigh, Rice e Nakagami são apresentadas para caracterização do canal, além dessas são calculadas as distribuições recentemente desenvolvidas, de Kappa-mi e Eta-mi. Para a validação do modelo realizaram-se campanhas de medições em um shopping center, que possui um DAS, com o teste em dois ambientes distintos, um supermercado e uma praça de alimentação. As simulações são realizadas no software MATLAB® e o desempenho dos resultados avaliados através do cálculo dos erros absoluto, desvio padrão e erro rms.
Resumo:
Este trabalho tem como objetivo apresentar um aplicativo para auxiliar no planejamento de sistemas elétricos, através de uma metodologia para controle de tensão e minimização das perdas, através da otimização da injeção de reativos, mantendo a tensão nos barramentos dentro de limites pré estabelecidos. A metodologia desenvolvida é baseada em um sistema hibrido, que utiliza inteligência computacional baseada em um algoritmo genético acoplado a um programa de fluxo de carga (ANAREDE), que interagem para produzir uma solução ótima. Os resultados obtidos mostram que a técnica baseada no algoritmo genético é bem adequada ao tipo de problema ora tratado referente a minimização de perdas reativas e a melhoria do perfil da tensão em redes elétricas, sendo este atualmente um problema crítico em parte do Sistema Interligado Nacional (SIN).
Resumo:
Os hidrogeradores são peças chaves no circuito brasileiro de energia, sua indisponibilidade e mau funcionamento podem causar multas altíssimas a concessionárias aplicadas pela ANEEL por não atenderem a demandas e até por paradas impróprias para efetivar manutenções, além de agravar confiabilidade na garantia do fornecimento aos consumidores finais. Para garantir que isso não venha acontecer, a manutenção preditiva fornece técnicas que podem apontar as falhas analisando os “sinais vitais” originados pelo próprio equipamento. Desta forma as condições mecânicas e operacionais são periodicamente monitoradas e quando as tendências são detectadas insalubres, as peças incômodas na máquina são identificadas e programadas para manutenção. Para que essa tendência seja encontrada, utiliza-se da lógica fuzzy para modelar o comportamento dos hidrogeradores, sendo mais especifico: mancais, estator e anel coletor, inferindo conclusões prováveis de falhas. Neste trabalho, mostra o processo de construção do sistema que auxilia no diagnóstico da manutenção preditiva, desde sua metodologia de desenvolvimento por macro-atividades, definição arquitetural, conformidade dos requisitos e análise do conhecimento inserido a inteligência do sistema. O sistema foi desenvolvido em plataforma labview para servir como ferramenta de apoio. Todo o conhecimento inserido no sistema foi obtido com o corpo especialista de Eletronorte e outra parte na literatura, foi necessário aplicar o conceito de regras ao maquina de inferência fuzzy, para uma forma linguística de fácil compreensão, para que os próprios especialistas ampliem e evolua o software.
Resumo:
Hoje, o espectro de rádio é um dos mais importantes recursos naturais no mundo. Segundo relatórios da FCC (do inglês, Federal Communications Commission), as bandas licenciadas, apesar de abundantes, são pobremente utilizadas. A tecnologia de rádio cognitivo visa melhorar a eficiência espectral através do acesso oportunista ao espectro. Permite que novas aplicações baseadas em comunicação sem fio sejam suportadas, sem interferir na comunicação licenciada e buscando garantir a qualidade de serviço das aplicações que a utilizam. Neste âmbito, o handoff de espectro é um dos requisitos essenciais e críticos na adoção desta tecnologia. Este trabalho realiza uma discussão da tecnologia de rádio cognitivo, propõe e avalia uma estratégia proativa para handoff de espectro em redes baseadas em rádio cognitivo utilizando Redes Neurais Artificiais. O desempenho da proposta em termos de nível de interferência ao usuário primário, número de handoffs de espectro realizado pelo usuário secundário e utilização espectral, é comparado com o obtido por um esquema reativo. Diferentemente de outras propostas que se baseiam em modelos estocásticos pré-definidos, utilizaram-se medidas reais de sensoriamento disponibilizados pelo IEEE Dyspan 2008 para avaliar a proposta. Resultados numéricos mostram a superioridade do esquema proposto.
Resumo:
As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.
Resumo:
Nos últimos de 20 anos, economia e tecnologia evoluíram em muitas direções e em novas áreas. Muitas dessas evoluções criaram oportunidades que estão sendo consideradas na concepção de futuras redes de comunicação. Estas novas possibilidades estão relacionadas à, sobretudo, utilização da internet para o acesso à serviços e englobam: mobilidade; tecnologias de baixo custo; crescimento e empregos (pela Internet participa-se de cada processo de negócios e produção); serviços; educação (oportunidade para as pessoas crescerem e se desenvolverem); entretenimento (mundos virtuais para o lazer, compras e jogos); volume de tráfego maior (texto, voz, imagens, vídeo). Como uma consequência, a Internet se tornou, semelhante a eletricidade ou água, um bem público. Com quase 2 bilhões de usuários (aproximadamente 28% da população mundial), a Internet está se tornando, cada vez mais, uma infraestrutura difusivo oferecendo em qualquer lugar, a qualquer momento conectividade e serviços. Este mundo da Internet atual é o resultado de sucessivas alterações que aconteceram desde o seu surgimento e que tornaram a infraestrutura de comunicação de importância crítica. Em termos de tecnologias de comunicação, os sistemas móveis sem fio têm um lugar especial devido a sua difusão excepcional na última década e que, junto com a Internet, tem permitido o aparecimento de dispositivos inteligentes, a introdução de novos serviços inovadores e exigindo, para tanto, um ambiente que suporte a inovação e criatividade. Porém, os vários padrões de redes para suporte, principalmente, ao acesso de última milha são desvantagens na perspectiva do usuário, pois este tem de se habilitar nessas redes (contratar os serviços) e, não raro, ter terminais específicos para o acesso. A idéia de um padrão único para estas redes não obteve resultados satisfatórios e uma solução aponta para a integração dessas redes para prover acesso único e transparente ao usuário. Esse trabalho, portanto, apresenta uma solução embarcada para integrar padrões de comunicações sem fio heterogênea do tipo IEEE 802.15.4 ZigBee, IEEE 802.20 GSM/GPRS e IEEE 802.2 Wi-Fi. Essa heterogeneidade de tecnologias sem fio permite a um usuário em movimento, através de seu terminal local ou remoto, acessar aplicativos e serviços de forma transparente. A avaliação de desempenho da solução foi realizada utilizando-se dois tipos de serviços: domótica e telemedicina. Os resultados indicaram que a solução proposta consegue integrar e prover os serviços com segurança e confiabilidade.
Resumo:
O objetivo deste trabalho é a otimização da largura de banda de antenas linear e planar para aplicações em sistemas de banda larga. Nesse sentido, foi feito um estudo das técnicas de análise, aumento da largura de banda e otimização adequadas para o problema em questão. Como técnica de análise, foi utilizado o método dos momentos, o qual está apresentado no capítulo II. Para aumentar a largura de banda, foram utilizadas as técnicas de colocação de elementos parasitas e construção de fendas no radiador, descritos sucintamente no capítulo III. Como algoritmo de otimização, foi utilizado o algoritmo genético, descrito sucintamente no capítulo II. Neste trabalho, são apresentadas duas propostas de antenas, uma antena dipolo linear combinada com quatros espiras parasitas, capítulo IV, e uma antena planar do tipo espira, capítulo V. No primeiro caso, foram utilizados elementos parasitas e o algoritmo genético para aumentar a largura de banda e, no segundo, foram empregadas fendas no radiador e a otimização paramétrica para este objetivo.
Resumo:
A presente pesquisa trata o projeto e análise de uma antena monopolo planar com geometria modificada visando sua utilização para recepção do sinal de TV digital operante no Brasil na faixa de 470 MHz a 806 MHz. Faixa essa contida no espectro de UHF – Ultra High Frequency (300 MHz a 3 GHz). Para desenvolvimento desse trabalho foi tomado como referência à antena denominada “The Hi Monopole”. Que originalmente foi apresentada para operar em sistemas UWB (Ultra Wide Band) em 3,1 a 10,6 GHz. Para o desenvolvimento do trabalho proposto, diferentes técnicas de adequação da antena podem ser utilizadas para operação em banda larga, tais como: modificação na estrutura da antena, carregamento resistivo, chaveamento, utilização de elementos parasitas e estruturas de casamento. O projeto de antenas banda larga pode ser realizado a partir de três abordagens diferentes: domínio do tempo, domínio da frequência e método de expansão por singularidades. O método no domínio da frequência foi empregado neste trabalho para o projeto da antena proposta, algumas das técnicas supracitadas foram analisadas almejando o aumento da largura de banda, sendo confeccionado um protótipo da antena para validar os conceitos empregados. A antena foi então projetada para a faixa de 470 MHz a 890 MHz. O protótipo construído para essa mesma faixa apresentou bons resultados, o que valida à técnica empregada. Aspectos positivos e negativos do uso desta técnica são discutidos ao longo do trabalho. O programa computacional comercial CST® MICROWAVE STUDIO, baseado na Técnica da Integração Finita (FIT), foi usado para simulações no domínio da frequência.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Esse trabalho compara os algoritmos C4.5 e MLP (do inglês “Multilayer Perceptron”) aplicados a avaliação de segurança dinâmica ou (DSA, do inglês “Dynamic Security Assessment”) e em projetos de controle preventivo, com foco na estabilidade transitória de sistemas elétricos de potência (SEPs). O C4.5 é um dos algoritmos da árvore de decisão ou (DT, do inglês “Decision Tree”) e a MLP é um dos membros da família das redes neurais artificiais (RNA). Ambos os algoritmos fornecem soluções para o problema da DSA em tempo real, identificando rapidamente quando um SEP está sujeito a uma perturbação crítica (curto-circuito, por exemplo) que pode levar para a instabilidade transitória. Além disso, o conhecimento obtido de ambas as técnicas, na forma de regras, pode ser utilizado em projetos de controle preventivo para restaurar a segurança do SEP contra perturbações críticas. Baseado na formação de base de dados com exaustivas simulações no domínio do tempo, algumas perturbações críticas específicas são tomadas como exemplo para comparar os algoritmos C4.5 e MLP empregadas a DSA e ao auxílio de ações preventivas. O estudo comparativo é testado no sistema elétrico “New England”. Nos estudos de caso, a base de dados é gerada por meio do programa PSTv3 (“Power System Toolbox”). As DTs e as RNAs são treinada e testadas usando o programa Rapidminer. Os resultados obtidos demonstram que os algoritmos C4.5 e MLP são promissores nas aplicações de DSA e em projetos de controle preventivo.
Resumo:
A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.
Resumo:
O reconhecimento automático de voz vem sendo cada vez mais útil e possível. Quando se trata de línguas como a Inglesa, encontram-se no mercado excelentes reconhecedores. Porem, a situação não e a mesma para o Português Brasileiro, onde os principais reconhecedores para ditado em sistemas desktop que já existiram foram descontinuados. A presente dissertação alinha-se com os objetivos do Laboratório de Processamento de Sinais da Universidade Federal do Pará, que é o desenvolvimento de um reconhecedor automático de voz para Português Brasileiro. Mais especificamente, as principais contribuições dessa dissertação são: o desenvolvimento de alguns recursos necessários para a construção de um reconhecedor, tais como: bases de áudio transcrito e API para desenvolvimento de aplicações; e o desenvolvimento de duas aplicações: uma para ditado em sistema desktop e outra para atendimento automático em um call center. O Coruja, sistema desenvolvido no LaPS para reconhecimento de voz em Português Brasileiro. Este alem de conter todos os recursos para fornecer reconhecimento de voz em Português Brasileiro possui uma API para desenvolvimento de aplicativos. O aplicativo desenvolvido para ditado e edição de textos em desktop e o SpeechOO, este possibilita o ditado para a ferramenta Writer do pacote LibreOffice, alem de permitir a edição e formatação de texto com comandos de voz. Outra contribuição deste trabalho e a utilização de reconhecimento automático de voz em call centers, o Coruja foi integrado ao software Asterisk e a principal aplicação desenvolvida foi uma unidade de resposta audível com reconhecimento de voz para o atendimento de um call center nacional que atende mais de 3 mil ligações diárias.