15 resultados para limão
em Universidade Federal do Pará
Resumo:
Este trabalho descreve um sistema de análise de dados com a finalidade de gerar um sistema de controle utilizando técnica inteligente para adição de fluoreto de alumínio (AlF3) em fornos de redução de alumínio. O projeto baseia-se nos conceitos de lógica fuzzy, nos quais o conhecimento acumulado pelo especialista do processo é traduzido de maneira qualitativa em um conjunto de regras linguísticas do tipo SE
Resumo:
A web tem sido bastante utilizada ultimamente por empresas e instituições de ensino como forma de oferecer aprendizado. A criação de conteúdos para o aprendizado via web é uma atividade que tem demandado recursos humanos especializados em tecnologias e conceitos, de forma que os conteúdos criados não sejam restritos a ferramentas, plataformas e formatos de apresentação. Este trabalho apresenta o desenvolvimento de um protótipo de uma ferramenta de autoria de conteúdo para aprendizado via web, através da qual os conteúdos criados são independentes da ferramenta de autoria, da plataforma operacional e dos formatos de apresentação que sejam utilizados. Por ser um trabalho de desenvolvimento, um processo é definido e suas fases e atividades são utilizadas para organizar trabalho e documentar todas as decisões tomadas.
Resumo:
Face às dimensões continentais do país, as organizações situadas em regiões carentes de fornecedores de desenvolvimento de sistemas de software especializado estão distribuindo suas operações de Information Technology Outsourcing (ITO), para outras regiões. Como consequência, a redução de custos e a melhoria da contratação de serviços em Tecnologia da Informação (TI) têm sido os dois grandes focos da atualidade, incentivando à noção de parceiros múltiplos em operações recíprocas e engajados tanto em relacionamentos formais quanto informais como a terceirização. Os serviços terceirizados são diversificados e entre eles está o desenvolvimento e manutenção de software através de contratos, realizados por organizações situadas em regiões onde existe demanda de software com características específicas. Sabe-se que a terceirização de Software e Serviços Correlatos (S&SC), que inclui as atividades de contratação e gestão do processo de aquisição é uma tarefa complexa e necessária para as organizações, principalmente no que diz respeito às condições envolvidas na contratação. Nesses casos, o exercício da governança tem sido um importante instrumento para, com a terceirização de TI, promover a gestão adequada do risco e o retorno do investimento. Sendo assim, o processo de compra ou venda de um produto de software nesse ambiente é uma atividade que envolve um grande número de conceitos subjetivos, referentes principalmente a características dos produtos. Torna-se maior o desafio quando se trata de software de prateleira modificável (Modified Off-The-Shelf - MOTS) que sofrem modificações e adições de requisitos a cada novo cliente. Neste contexto, buscando adequar as exigências do mercado com as necessidades de métodos e diretrizes para melhoria dos processos de aquisição e fornecimento de software, este trabalho procura explorar as principais características acerca do contrato, do controle de qualidade, e os resultados dos relacionamentos adotados na implementação de projetos de terceirização desenvolvidos á distância. São apresentados os resultados obtidos de um estudo de caso conduzido em uma empresa pública de Medicina Transfusional situada no norte do Brasil que adotou este processo. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.
Resumo:
A aprendizagem é um processo continuo permeado por construções e reconstruções do conhecimento, com a inserção do computador no processo de ensino aprendizagem, juntamente com a análise das abordagens da Psicologia Educacional e Educação Matemática, foi possível, neste trabalho, a elaboração de um prototipo computacional voltado para o auxilio a aprendizagem da matemática. Este prototipo e um ambiente computacional interativo para auxiliar o aprendizado das quatro operações básicas (adição, subtração,multiplicação e divisão). Assunto este de grande repercussão no ambiente escolar, pois se não aprendido adequadamente, apresenta sérios problemas na evolução do aprendizado matemático do estudante. O trabalho envolve quatro etapas: Aspectos teóricos sobre o processo de ensino aprendizagem, dando-se maior ênfase a abordagem construtivista; Processo de ensino aprendizagem de Matemática, suas dificuldades e perspectivas de mudanças mediante ao aprendizado auxiliado por meios computacionais; concepção e modelagem do prototipo seguido dos Resultados obtidos durante aplicações do mesmo, resultados esses favoráveis a proposta inicial do trabalho.
Resumo:
Historicamente, o processo de formação das populações da Amazônia, assim como de todo território brasileiro, envolveu três grupos étnicos principais: o ameríndio, o europeu e o africano. Como conseqüência, estas populações possuem em geral constituição miscigenada do ponto de vista social e biológico. Desde o final do século passado, estudos do DNA mitocondrial (mtDNA) tem sido desenvolvidos com o propósito de estimar a mistura interétnica presente nestas populações. Para isto, é de fundamental importância a classificação de uma determinada linhagem de mtDNA em um dos mais de 250 haplogrupos/subclados propostos na literatura. Com o objetivo de desenvolver um sistema automatizado, preciso e acurado de classificação de seqüências (linhagens) de mtDNA, o presente trabalhou lançou mão da técnica de Redes Neurais Artificiais (RNA’s) tendo como base os estudos de filogeografia. Para esta classificação, foram desenvolvidas quatro redes neurais artificiais diretas, com múltiplas camadas e algoritmo de aprendizagem de retropropagação. As entradas de cada rede equivalem às posições nucleotídicas polimórficas da região hipervariável do DNA mitocondrial, as quais retornam como saída a classificação específica de cada linhagem. Posterior ao treinamento, todas as redes apresentaram índices de acerto de 100%, demonstrando que a técnica de Rede Neural Artificial pode ser utilizada, com êxito, na classificação de padrões filogeográficos com base no DNA mitocondrial.
Resumo:
Teoricamente, a predição de falha em cadeia de isoladores pode ser observada pela verificação do comportamento harmônico da corrente através dos isoladores, chamada de corrente de fuga. Isto porque a capacitância de uma cadeia de isoladores permite a passagem das componentes harmônicas de maior ordem da corrente na linha. No entanto os projetos e planejamento de linhas de transmissão só levam em consideração as dimensões e geometrias da linha; esquecendo ou ignorando os efeitos ambientais em uma linha de transmissão. A omissão de tais efeitos, podem confundir um diagnóstico de falha no sistema de isolação da linha, de forma que foi necessário desenvolver uma metodologia para determinação dos valores dos parâmetros elétricos, resistência elétrica e capacitância em função de variáveis ambientais como: temperatura ambiente, radiação solar, umidade relativa do ar, velocidade do vento e direção do vento, particularmente a determinação do comportamento da capacitância, em função dessas variáveis ambientais se deu de maneira inovadora e experimental, tendo em vista obter um modelo matemático de linha de transmissão mais realista e dinâmico, que possa identificar de maneira precisa os parâmetros elétricos, sob a influência das variáveis ambientais. Nesse trabalho é desenvolvido esse modelo, que, além de ser alimentado com dados elétricos e ambientais reais, é feito o estudo da decomposição harmônica da corrente de fuga; além da comparação com resultados de outros modelos já existentes. São realizadas ainda, simulações de falhas virtuais, que compravam a eficiência e limitações do modelo, além de sugerir uma forma de monitoração em tempo real e a baixos custos.
Resumo:
As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.
Resumo:
O presente trabalho visa realizar uma análise ergonômica em uma linha de produção. Através de pesquisas, análises de relatórios e procedimentos tornou-se possível chegar a conclusões que permitiram formular propostas que objetivam à redução do impacto do trabalho realizado na saúde do colaborador. Sendo assim, o objetivo principal desta pesquisa é analisar a situação ergonômica da linha de produção focalizando a biomecânica do trabalho. A justificativa é em virtude da grande evasão de colaboradores devido aos problemas de saúde relacionados a ergonomia, derivados dos principais problemas que enfrentam com o manuseio e movimentação de cargas pesadas, como a dor lombar, levando a apresentar problemas crônicos e agudos. O método utilizado consistiu, primeiramente, no levantamento de dados reais de produção na empresa, nos casos similares estudados em literatura e nos cálculos matemáticos que puderam comprovar as análises, observando-se que, apesar dos avanços da tecnologia e a mecanização das tarefas, muitas atividades continuam sendo realizadas manualmente. As conclusões obtidas deixam claros os cuidados que se devem ter com a saúde do colaborador através da implementação de ações que visem a melhoria da área de trabalho com equipamento adequado para a atividade a ser desempenhada, redundando em benefícios tanto para o empregado como para o próprio empregador.
Resumo:
Os geradores síncronos se submetem a diferentes situações de paradas para desligamento forçado, desligamento por condições externas, desligamento programado para manutenção corretiva e preventiva. As diferentes variações de temperatura em que se submete o gerador síncrono, precisamente, ao seu estator, afeta o seu isolamento, que não acompanha essas constantes variações, devido ter um coeficiente de dilatação diferente. No presente trabalho busca-se identificar uma tendência de progressão do envelhecimento do isolamento de seus enrolamentos estatóricos em máquinas que sofrem repetitivas partidas e paradas e que ficam com sua reserva de energia desligada por muitas horas. O estudo foi aplicado nos cinco geradores síncronos da usina hidrelétrica de Balbina, pertencente ao grupo Eletrobrás, que apresenta tal problema. Esse estudo vem comprovar os ensaios de análise de descargas parciais dos geradores síncronos realizados periodicamente para diagnosticar problemas nos seus enrolamentos estatóricos que apresentam diferentes magnitudes e confirmar a hipótese de que máquinas que apresentam maiores magnitudes de descargas parciais em seus estatores são as que se submetem maiores quantidades de partidas e paradas e horas com energia de reserva desligada.
Resumo:
A Modelagem de Sistemas vêm sendo cada vez mais aplicada nos meios de produção para as mais diversas finalidades, incluindo a área de Projeto de Sistemas, com o intuito de definir o número de pessoas na equipe, analisar o esforço, o tamanho do software e os custos totais do projeto. Este trabalho tem por finalidade desenvolver um modelo de apoio à análise baseado em Pontos de Caso de Uso (PCU). Para isso, utiliza-se de vários métodos de pesquisa entre elas a pesquisa exploratória e de laboratório para criar um modelo de apoio para a análise.
Resumo:
Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.
Resumo:
Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.
Resumo:
As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.
Resumo:
A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.
Resumo:
A predição do preço da energia elétrica é uma questão importante para todos os participantes do mercado, para que decidam as estratégias mais adequadas e estabeleçam os contratos bilaterais que maximizem seus lucros e minimizem os seus riscos. O preço da energia tipicamente exibe sazonalidade, alta volatilidade e picos. Além disso, o preço da energia é influenciado por muitos fatores, tais como: demanda de energia, clima e preço de combustíveis. Este trabalho propõe uma nova abordagem híbrida para a predição de preços de energia no mercado de curto prazo. Tal abordagem combina os filtros autorregressivos integrados de médias móveis (ARIMA) e modelos de Redes Neurais (RNA) numa estrutura em cascata e utiliza variáveis explanatórias. Um processo em dois passos é aplicado. Na primeira etapa, as variáveis explanatórias são preditas. Na segunda etapa, os preços de energia são preditos usando os valores futuros das variáveis exploratórias. O modelo proposto considera uma predição de 12 passos (semanas) a frente e é aplicada ao mercado brasileiro, que possui características únicas de comportamento e adota o despacho centralizado baseado em custo. Os resultados mostram uma boa capacidade de predição de picos de preço e uma exatidão satisfatória de acordo com as medidas de erro e testes de perda de cauda quando comparado com técnicas tradicionais. Em caráter complementar, é proposto um modelo classificador composto de árvores de decisão e RNA, com objetivo de explicitar as regras de formação de preços e, em conjunto com o modelo preditor, atuar como uma ferramenta atrativa para mitigar os riscos da comercialização de energia.