142 resultados para limão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Teoricamente, a predição de falha em cadeia de isoladores pode ser observada pela verificação do comportamento harmônico da corrente através dos isoladores, chamada de corrente de fuga. Isto porque a capacitância de uma cadeia de isoladores permite a passagem das componentes harmônicas de maior ordem da corrente na linha. No entanto os projetos e planejamento de linhas de transmissão só levam em consideração as dimensões e geometrias da linha; esquecendo ou ignorando os efeitos ambientais em uma linha de transmissão. A omissão de tais efeitos, podem confundir um diagnóstico de falha no sistema de isolação da linha, de forma que foi necessário desenvolver uma metodologia para determinação dos valores dos parâmetros elétricos, resistência elétrica e capacitância em função de variáveis ambientais como: temperatura ambiente, radiação solar, umidade relativa do ar, velocidade do vento e direção do vento, particularmente a determinação do comportamento da capacitância, em função dessas variáveis ambientais se deu de maneira inovadora e experimental, tendo em vista obter um modelo matemático de linha de transmissão mais realista e dinâmico, que possa identificar de maneira precisa os parâmetros elétricos, sob a influência das variáveis ambientais. Nesse trabalho é desenvolvido esse modelo, que, além de ser alimentado com dados elétricos e ambientais reais, é feito o estudo da decomposição harmônica da corrente de fuga; além da comparação com resultados de outros modelos já existentes. São realizadas ainda, simulações de falhas virtuais, que compravam a eficiência e limitações do modelo, além de sugerir uma forma de monitoração em tempo real e a baixos custos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visa realizar uma análise ergonômica em uma linha de produção. Através de pesquisas, análises de relatórios e procedimentos tornou-se possível chegar a conclusões que permitiram formular propostas que objetivam à redução do impacto do trabalho realizado na saúde do colaborador. Sendo assim, o objetivo principal desta pesquisa é analisar a situação ergonômica da linha de produção focalizando a biomecânica do trabalho. A justificativa é em virtude da grande evasão de colaboradores devido aos problemas de saúde relacionados a ergonomia, derivados dos principais problemas que enfrentam com o manuseio e movimentação de cargas pesadas, como a dor lombar, levando a apresentar problemas crônicos e agudos. O método utilizado consistiu, primeiramente, no levantamento de dados reais de produção na empresa, nos casos similares estudados em literatura e nos cálculos matemáticos que puderam comprovar as análises, observando-se que, apesar dos avanços da tecnologia e a mecanização das tarefas, muitas atividades continuam sendo realizadas manualmente. As conclusões obtidas deixam claros os cuidados que se devem ter com a saúde do colaborador através da implementação de ações que visem a melhoria da área de trabalho com equipamento adequado para a atividade a ser desempenhada, redundando em benefícios tanto para o empregado como para o próprio empregador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os geradores síncronos se submetem a diferentes situações de paradas para desligamento forçado, desligamento por condições externas, desligamento programado para manutenção corretiva e preventiva. As diferentes variações de temperatura em que se submete o gerador síncrono, precisamente, ao seu estator, afeta o seu isolamento, que não acompanha essas constantes variações, devido ter um coeficiente de dilatação diferente. No presente trabalho busca-se identificar uma tendência de progressão do envelhecimento do isolamento de seus enrolamentos estatóricos em máquinas que sofrem repetitivas partidas e paradas e que ficam com sua reserva de energia desligada por muitas horas. O estudo foi aplicado nos cinco geradores síncronos da usina hidrelétrica de Balbina, pertencente ao grupo Eletrobrás, que apresenta tal problema. Esse estudo vem comprovar os ensaios de análise de descargas parciais dos geradores síncronos realizados periodicamente para diagnosticar problemas nos seus enrolamentos estatóricos que apresentam diferentes magnitudes e confirmar a hipótese de que máquinas que apresentam maiores magnitudes de descargas parciais em seus estatores são as que se submetem maiores quantidades de partidas e paradas e horas com energia de reserva desligada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Horticultura) - FCA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Modelagem de Sistemas vêm sendo cada vez mais aplicada nos meios de produção para as mais diversas finalidades, incluindo a área de Projeto de Sistemas, com o intuito de definir o número de pessoas na equipe, analisar o esforço, o tamanho do software e os custos totais do projeto. Este trabalho tem por finalidade desenvolver um modelo de apoio à análise baseado em Pontos de Caso de Uso (PCU). Para isso, utiliza-se de vários métodos de pesquisa entre elas a pesquisa exploratória e de laboratório para criar um modelo de apoio para a análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A predição do preço da energia elétrica é uma questão importante para todos os participantes do mercado, para que decidam as estratégias mais adequadas e estabeleçam os contratos bilaterais que maximizem seus lucros e minimizem os seus riscos. O preço da energia tipicamente exibe sazonalidade, alta volatilidade e picos. Além disso, o preço da energia é influenciado por muitos fatores, tais como: demanda de energia, clima e preço de combustíveis. Este trabalho propõe uma nova abordagem híbrida para a predição de preços de energia no mercado de curto prazo. Tal abordagem combina os filtros autorregressivos integrados de médias móveis (ARIMA) e modelos de Redes Neurais (RNA) numa estrutura em cascata e utiliza variáveis explanatórias. Um processo em dois passos é aplicado. Na primeira etapa, as variáveis explanatórias são preditas. Na segunda etapa, os preços de energia são preditos usando os valores futuros das variáveis exploratórias. O modelo proposto considera uma predição de 12 passos (semanas) a frente e é aplicada ao mercado brasileiro, que possui características únicas de comportamento e adota o despacho centralizado baseado em custo. Os resultados mostram uma boa capacidade de predição de picos de preço e uma exatidão satisfatória de acordo com as medidas de erro e testes de perda de cauda quando comparado com técnicas tradicionais. Em caráter complementar, é proposto um modelo classificador composto de árvores de decisão e RNA, com objetivo de explicitar as regras de formação de preços e, em conjunto com o modelo preditor, atuar como uma ferramenta atrativa para mitigar os riscos da comercialização de energia.