10 resultados para Branch and bound algorithms

em Universidade Federal do Pará


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo apresenta uma aplicação do método para determinação espectrofotométrica simultânea dos íons divalentes de cobre, manganês e zinco à análise de medicamento polivitamínico/polimineral. O método usa 4-(2-piridilazo) resorcinol (PAR), calibração multivariada e técnicas de seleção de variáveis e foi otimizado o empregando-se o algoritmo das projeções sucessivas (APS) e o algoritmo genético (AG), para escolha dos comprimentos de onda mais informativos para a análise. Com essas técnicas, foi possível construir modelos de calibração por regressão linear múltipla (RLM-APS e RLM-AG). Os resultados obtidos foram comparados com modelos de regressão em componentes principais (PCR) e nos mínimos quadrados parciais (PLS). Demonstra-se a partir do erro médio quadrático de previsão (RMSEP) que os modelos apresentam desempenhos semelhantes ao prever as concentrações dos três analitos no medicamento. Todavia os modelos RLM são mais simples pois requerem um número muito menor de comprimentos de onda e são mais fáceis de interpretar que os baseados em variáveis latentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Piper aduncum L. é uma planta que ocorre na Amazônia Brasileira com elevado teor de óleo essencial e que apresenta propriedades biológicas utilizáveis na agricultura e saúde humana. Com o objetivo de avaliar germoplasma visando ao melhoramento genético e cultivo econômico, realizaram-se coletas (inflorescências, estacas, folhas e ramos finos) em dez municípios da Amazônia Brasileira (Manaus, Marabá, Goianésia, Moju, Belém, Santa Izabel, Americano, Bonito, Santarém Novo e Aveiro). Tomaram-se dados do ambiente, populações e de doze caracteres morfoagronômicos (número de folhas por ramo, comprimento da folha, largura da folha, circunferência do ramo mais velho, altura da planta, número de ramos ortotrópicos, número de ramos plagiotrópicos, comprimento do entrenó, número de espigas por ramo, rendimento de óleo, teor e produção de dilapiol). As inflorescências e estacas foram identificadas e encaminhadas para a UFRA em Belém-PA e, as folhas e ramos finos, para o Museu Paraense Emílio Goeldi-MPEG, para extração do óleo essencial (hidrodestilação). Utilizaram-se estimadores de média, desvio padrão, coeficiente de variação e amplitude total para estudo da variabilidade fenotípica. As matrizes prevalenceram em ambientes antropizados, solos argilosos, condições de drenagem variáveis, terrenos planos e clima Ami, como também predominaram populações definíveis pela agregação dos indivíduos, em terra alta e a pleno sol, serrapilheira, tamanho das populações e presença de plântulas no chão muito variáveis. Os caracteres de maior variabilidade foram número de ramos ortotrópicos, número de espigas por ramo, circunferência do ramo mais velho (morfológicos), teor e produção de dilapiol (agronômicos). Concluiu-se que a espécie apresenta adaptação a diferentes ambientes com relação à vegetação, solo, clima, relevo e drenagem, facilitando o cultivo e domesticação. Há variabilidade morfoagronômica favorecendo a seleção e fitomelhoramento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aborda a classificação automática de faltas do tipo curto-circuito em linhas de transmissão. A maioria dos sistemas de transmissão possuem três fases (A, B e C). Por exemplo, um curto-circuito entre as fases A e B pode ser identicado como uma falta\AB". Considerando a possibilidade de um curto-circuito com a fase terra (T), a tarefa ao longo desse trabalho de classificar uma série temporal em uma das 11 faltas possíveis: AT, BT, CT, AB, AC, BC, ABC, ABT, ACT, BCT, ABCT. Estas faltas são responsáveis pela maioria dos distúrbios no sistema elétrico. Cada curto-circuito é representado por uma seqüência (série temporal) e ambos os tipos de classificação, on-line (para cada curto segmento extraído do sinal) e off-line (leva em consideração toda a seqüência), são investigados. Para evitar a atual falta de dados rotulados, o simulador Alternative Transient Program (ATP) é usado para criar uma base de dados rotulada e disponibilizada em domínio público. Alguns trabalhos na literatura não fazem distinção entre as faltas ABC e ABCT. Assim, resultados distinguindo esse dois tipos de faltas adotando técnicas de pré-processamento, diferentes front ends (por exemplo wavelets) e algoritmos de aprendizado (árvores de decisão e redes neurais) são apresentados. O custo computacional estimado durante o estágio de teste de alguns classificadores é investigado e a escolha dos parâmetros dos classificadores é feita a partir de uma seleção automática de modelo. Os resultados obtidos indicam que as árvores de decisão e as redes neurais apresentam melhores resultados quando comparados aos outros classificadores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho utilizou os dados de precipitação do período de janeiro de 2000 a setembro de 2007 da torre micrometeorológica localizada na Estação Científica Ferreira Pena (ECFP) em Caxiuanã e foram comparados com o algoritmo 3B42 que combina dados de satélites no canal de microoondas para ajustar aqueles do canal infravermelho. Adicionalmente foi feita uma análise da distribuição temporal e espacial da precipitação na Amazônia Oriental utilizando os dados de cinco algoritmos estimadores de precipitação: O Geostationary Environmental SalellitePrecipitation lndex (GPI); o 3B42; 3A12 e 3A25 que são os algoritmos provenientes dos sensores de microondas e do radar meteorológico à bordo do satélite Tropical Rainfall MeasuringMission (TRMM); e o Global Precipitation Climatology Center (GPCC) de janeiro de 1998 a dezembro de 2007. A comparação entre o algoritmo 3B42 com os dados do pluviógrafo da torre mostrou que o estimador 3B42 superestima a precipitação em relação aos dados da torre para todo o período de estudo. Os períodos mais chuvosos foram os trimestres de março-abril-maio (MAM) e dezembro-janeiro-feveireiro (DJF) e os períodos menos chuvosos foram setembro-outubro-novembro (SON) e junho-julho-agosto (JJA). Esta sazonalidade da precipitação se apresenta principalmente devido à influência da Zona de Convergência Intertropical (ZCIT), que contribui de maneira apreciável para a modulação da estação chuvosa na região. A comparação trimestral entre o algoritmo 3B42 e pluviógrafo da torre, mostra que o algoritmo 3B42 superestimou (subestimou) a precipitação em relação ao pluviógrafo em MAM e JJA (DJF e SON); e DJF é o trimestre que apresenta as estimativas de precipitação com valores mais aproximados a precipitação medida na torre micrometeorológica de Caxiuanã. Na média mensal o 3B42 subestima a precipitação de outubro a janeiro e superestima em relação as dados medidos na torre, de março a agosto. O algoritmo3B42 superestimou (subestimou) a precipitação noturna (matutina e vespertina) do ciclo diurno em relação ao pluviógrafo da torre, nas vizinhanças de Caxiuanã. No entanto ambos estimadores mostraram que em média o horário de maior precipitação é por volta das 1800hora local (HL). Além disso, as análises do ciclo diurno médio sazonal indicam que em DJF nos horários de 0900 HL, 1500 HL e 1800HL têm os valores de precipitação estimada pelo algoritmo3B42 mais aproximados aos valores da precipitação medida pontualmente em Caxiuanã. Os meses de novembro a fevereiro têm um máximo principal de precipitação no período vespertino, tanto na torre como no algoritmo 3B42. No período de maio à julho o horário os máximos diurnos de precipitação passam do período da tarde para os da noite e madrugada,modificando o ciclo diurno em comparação aos demais meses. A comparação entre os cinco algoritmos na Amazônia Oriental mostrou diferentes comportamentos entre os estimadores. O algoritmo GPI subestimou s precipitação em relação aos demais algoritmos na região costeira do Amapá e Guiana Francesa e superestimou na região central da Amazônia. Tanto o algoritmo 3A12 quanto o 3A25 apresentaram menor precipitação que os demais algoritmos. O algoritmo 3842, por ser uma combinação de várias estimativas baseadas no canal de microondas e infravermelho, apresenta padrões semelhantes a Figueroa e Nobre (1990). No entanto, o GPCC mostra menos detalhes na distribuição espacial de precipitação nos lugares onde não há pluviômetros como, por exemplo, no Noroeste do Pará. As diferenças entre os algoritmos aqui considerados podem estar relacionados com as características de cada algoritmo e/ou a metodologia empregada. As comparações pontuais de precipitação de um pluviômetro com a média numa área com dados provenientes de satélites podem ser a explicação para as diferenças entre os estimadores nos trimestres ou ciclo diurno. No entanto não se descartam que essas diferenças sejam devidas à diferente natureza da precipitação entre as subregiões, assim como a existência de diferentes sistemas que modulam o ciclo diurno da precipitação na Amazônia Oriental.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação apresenta os algoritmos considerados estado-da-arte para gerenciamento dinâmico de espectro (DSM). As técnicas de otimização utilizadas nos algoritmos DSM são abordadas e brevemente discutidas para melhor entendimento, descrição e comparação dos algoritmos. A análise comparativa entre os algoritmos foi realizada considerando o ganho em taxa (kbps) obtido em simulações. Para tanto, foi realizado em laboratório um conjunto de medições de função de transferência direta e de acoplamento, posteriormente utilizadas nas simulações dos algoritmos IWF, ISB e SCALE. Os resultados obtidos nas simulações através do uso das funções de transferência medidas mostraram melhor desempenho quando comparados aos demais resultados ao considerar funções de transferência obtidas a partir do padrão 1% pior caso, resultado este reflexo da aproximação 1% em que os pares apresentam maiores níveis de crosstalk em todas as frequências da função de transferência. Dentre os algoritmos comparados, o ISB e SCALE obtiveram desempenho semelhante em canais padronizados, ficando o IWF com o desempenho próximo ao SSM. No entanto, nas simulações em cenários com canais medidos, os três algoritmos tiveram ganhos muito próximo devido ao baixo nível de crosstalk.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse trabalho compara os algoritmos C4.5 e MLP (do inglês “Multilayer Perceptron”) aplicados a avaliação de segurança dinâmica ou (DSA, do inglês “Dynamic Security Assessment”) e em projetos de controle preventivo, com foco na estabilidade transitória de sistemas elétricos de potência (SEPs). O C4.5 é um dos algoritmos da árvore de decisão ou (DT, do inglês “Decision Tree”) e a MLP é um dos membros da família das redes neurais artificiais (RNA). Ambos os algoritmos fornecem soluções para o problema da DSA em tempo real, identificando rapidamente quando um SEP está sujeito a uma perturbação crítica (curto-circuito, por exemplo) que pode levar para a instabilidade transitória. Além disso, o conhecimento obtido de ambas as técnicas, na forma de regras, pode ser utilizado em projetos de controle preventivo para restaurar a segurança do SEP contra perturbações críticas. Baseado na formação de base de dados com exaustivas simulações no domínio do tempo, algumas perturbações críticas específicas são tomadas como exemplo para comparar os algoritmos C4.5 e MLP empregadas a DSA e ao auxílio de ações preventivas. O estudo comparativo é testado no sistema elétrico “New England”. Nos estudos de caso, a base de dados é gerada por meio do programa PSTv3 (“Power System Toolbox”). As DTs e as RNAs são treinada e testadas usando o programa Rapidminer. Os resultados obtidos demonstram que os algoritmos C4.5 e MLP são promissores nas aplicações de DSA e em projetos de controle preventivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação analisa a atuação da editora Guajarina na divulgação da literatura de cordel no Pará a partir de uma história do livro e da leitura, tendo como recorte o período de 1922 a 1949. Nesse sentido, procuramos explorar algumas questões relacionadas ao cordel que não se reduzem aos textos, tais como: a problematização da associação entre cordel, cultura popular e folclore; a produção e circulação dos folhetos; e as representações e estratégias dos poetas nas histórias de crimes. Desse modo, a análise da Guajarina e de seus folhetos nos permite entender alguns significados das múltiplas práticas de leitura da sociedade no contexto da primeira metade do século XX. Além dos folhetos, também são utilizadas fontes como jornais, revistas e coleções encadernadas de modinhas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.