987 resultados para Alta Floresta
Resumo:
Embora a assembléia de pequenos mamíferos desempenhe diferentes e importantes papéis na dinâmica das florestas, o conhecimento sobre a riqueza e o papel ecológico desempenhado pelas espécies nas restingas do estado do Rio Grande do Sul é ainda limitado, tendo-se poucas informações ecológicas sobre quem são esses animais nos diferentes fragmentos de florestas e como é sua relação espacial em ambientes de borda. Apesar da relevância, poucos estudos buscaram verificar se a assembléia de pequenos mamíferos em fragmentos florestais é sensível aos efeitos de borda, qual a extensão da borda para esses animais e se ela varia em diferentes estações do ano. No extremo norte da planície costeira do estado do Rio Grande do Sul, em um fragmento de floresta paludosa, denominada “Faxinal”, o presente trabalho foi realizado com o objetivo de investigar qual a riqueza e sucesso de captura de pequenos mamíferos, como é sua relação com a distância da beira do fragmento e se essa relação varia entre as estações do ano. Nos meses amostrais de janeiro (verão), abril (outono) e agosto (inverno) de 2004 foram colocadas armadilhas de arame de dois tamanhos nos estratos terrestre e arbustivo, em um gradeado com seis transecções paralelas que cobriram parte de formação florestal (3,17ha) e parte de campestre (0,31ha). A distância dos postos de captura do gradeado à beira mais próxima da floresta foram agrupadas em seis classes (1: 0-30m; 2: 31-70m; 3: 71-100; 4: 101-120; 5: 121-131; 6: 131-160m, no solo e 1: 0-20m; 2: 40-71m; 3: 80-100m; 4: 101-120m; 5: 121-131m; 6: 132-160m, no estrato arbustivo) para verificar se os dados de sucesso de captura das espécies de pequenos mamíferos diferem entre os fatores distância da beira e períodos amostrais (estações do ano). Onze espécies de pequenos mamíferos foram capturadas somente na parte florestada do gradeado (sucesso de captura total de 15,49%), sendo que maior riqueza, número de indivíduos e de capturas foram de roedores e no estrato terrestre. As espécies mais capturadas foram Akodon montensis (154 indivíduos), Oligoryzomys nigripes (34 indivíduos), Brucepattersonius iheringi (19 indivíduos), Oryzomys angouya (12 indivíduos) e Micoureus cf. demerarae (8 indivíduos) e Didelphis albiventris (7 indivíduos). O mês amostral de inverno foi aquele que apresentou maior riqueza, maior sucesso de captura e maior biomassa. As análises demonstraram relação significativa entre o sucesso de captura do conjunto das espécies de pequenos mamíferos capturadas no solo e a distância da beira, cuja relação esteve fortemente associada à estação do ano. A estrutura e/ou composição da assembléia diferiram entre as duas primeiras classes de distância, que por sua vez diferiram das demais. Isso indica que a assembléia de pequenos mamíferos, capturada no solo, é sensível à beira da floresta e que a sensibilidade varia conforme a estação do ano. Por outro lado, quando avaliada individualmente a relação para a espécie dominante Akodon montensis, o sucesso de captura do roedor não evidenciou com nitidez diferença entre as classes de distância, mas houve diferença entre os períodos amostrais, sendo o mês amostral com menor média de temperatura anual aquele com maior número de indivíduos e de capturas. Além disso, por Akodon montensis ter sido a espécie mais comum e abundante em todos períodos amostrais e em todos os pontos do gradeado, coletou-se 249 amostras fecais para investigar a capacidade dessa espécie em realizar dispersão endozoocórica As amostras coletadas foram analisadas sob lupa para verificar se existiam sementes intactas e, quando colocadas em experimento de germinação, se seriam capazes de germinar. O registro de sementes inteiras nas fezes de Akodon montensis e o tratamento dado às sementes, de não comprometer a capacidade de germinação, permite que a espécie seja, ao menos em parte, considerada legítima e efetiva dispersora de Ficus organensis e de Piper cf. solmisianum
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
Controvérsias existem sobre os benefícios da hemodiálise de alto fluxo e alta eficiência em relação a hemodiálise convencional. Este estudo compara, através de parâmetros clínicos, laboratoriais, avaliação do sistema nervoso periférico e autônomo, os pacientes em hemodiálise convencional(HDC) e, após, em hemodiálise de alto fluxo e alta eficiência(HDAF), usando os mesmos parâmetros da cinética da uréia, por um período de tempo de 4-8 meses em cada modalidade de tratamento hemodialitico. O sistema nervoso periférico foi avaliado através da miografia e da neurografia de membros superiores e inferiores. O estudo da variabilidade da freqüência cardíaca, através de seis índices no domínio do tempo, foi usado para avaliar o sistema nervoso autônomo nestes pacientes. Não houve diferença quanto às manifestações intradialíticas nos dois tipos de hemodiálise e nem alteração dos níveis tensionais no período de acompanhamento. Na avaliação laboratorial, verificou-se diferença estatisticamente significativa entre a HDC e HDAF nos seguintes parâmetros: creatinina(9,6mg/dl±2,3x10,9mg/dl±2,0;p<0,01),reserva alcalina (16,5mEq/l±2,5x18,2mEq/l±2,7; p<0,05), ácido úrico(6,3mg/dl±1,3x7,1mg/dl±1,64;p<0,01), fósforo(6,4mg/dl±1,3x7,2mg/dl ±1,4;p<0,01) e albumina(4,1mg/ml±0,5x3,8mg/ml±0,27;p<0,01). Observou-se melhora significativa da velocidade de condução sensitiva do nervo ulnar na HDAF(40,72m/s±5,11x48,01m/s±7,7;p<0,05). Houve redução significativa da variabilidade da freqüência cardíaca nos pacientes urêmicos em hemodiálise, comparativamente ao grupo de indivíduos normais. Concluiu-se que não houve diferença significativa nos parâmetros clínicos entre os dois tipos de hemodiálise. Observou-se redução significativa da albumina na HDAF, bem como aumento significativo da creatinina, reserva alcalina, fósforo e ácido úrico. Houve melhora significativa da velocidade de condução sensitiva do nervo ulnar nos pacientes em HDAF. Os pacientes em hemodiálise apresentam deterioração significativa do Sistema Nervoso Autônomo comparativamente ao grupo controle.
Resumo:
O presente trabalho discute o tema dos dirigentes públicos, atores recentemente debatidos pela literatura como um grupo específico que atua orientado a resultados e à criação de valor público. Em geral, são escassos os estudos que discutem os dirigentes públicos empiricamente; assim, mostraremos os papéis que desempenham argumentando que são atores fundamentais para a formulação e implementação das políticas públicas na medida em que são capazes de dialogar tanto com a esfera política como com a da gestão. Para isso, analisaremos o caso Chileno, experiência bastante consolidada que reconhece o dirigente público como ator distinto dos demais, regido por regras específicas de recrutamento, seleção, nomeação e gestão segundo acordos de resultados. Apresentaremos uma análise dos dirigentes chilenos baseada em uma perspectiva histórica tanto sobre o surgimento e consolidação do Sistema de Alta Direção Pública como em relação às tensões e complementaridades entre tecnocratas e políticos que marcaram os governos chilenos no período que compreende desde a redemocratização até os dias atuais. Mostraremos que este Sistema nasce no contexto de um acordo político entre governo e oposição em busca da modernização e profissionalização do Estado e que as dimensões da política e da gestão são pilares centrais do modelo, presentes em todas as suas esferas, tais como seu desenho institucional e regras de gestão de pessoas e do desempenho.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
Resumo:
O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
Vários estudos têm sugerido que seres vivos podem ser suscetíveis aos campos eletromagnéticos (CEMs). Os supostos efeitos dos Campos Eletromagnéticos de Ultra Alta Freqüência (CEMUAFs) em sistemas biológicos são pouco conhecidos. Os relatos de um possível efeito biológico dependente da alteração de estados de oxidação entre pares de radicais sugerem um mecanismo de transdução orgânica para os campos. Outros trabalhos obtiveram alterações na sinalização celular e defesas antioxidantes após a exposição CEMUAFs e, tais alterações, poderiam ser um agente causador de doenças como, por exemplo, a leucemia infantil, esta já correlacionada com a exposição aos CEMs. Desta forma o objetivo deste estudo foi investigar se o CEMUAF (834 MHz) poderia interferir com o balanço oxidativo de planárias e ratos, assim como, estudar a participação de enzimas responsáveis pela hidrólise de nucleotídeos, enzimas estas reconhecidas por serem influenciadas pela ação de radicais livres. As planárias foram expostas por 1, 3 e 6 dias (8 h/dia). Após a exposição foi feito um homogenato de todo o corpo de cada animal. Foi encontrado um aumento na atividade da superóxido desmutase (SOD) e um decréscimo na atividade da catalase (CAT) e na defesa antioxidante não-enzimática (TRAP) após 6 dias de exposição. Adicionalmente, houve um aumento na freqüência de micronúcleos (MN) após 3 e 6 dias de exposição. Não houve alteração nos parâmetros de dano oxidativo a lipídios (TBARS) e proteínas (Carbonil) em nenhum dos tempos de exposição. Estes resultados sugerem um aumento nos níveis de radicais livres e de danos aos ácidos nucléicos. Estudos posteriores deverão determinar se estes efeitos apresentam ou não associações do tipo causa e efeito. Foram utilizados três modelos com ratos. No primeiro modelo, animais com idades de 30, 80 e 210 dias foram expostos por 6 dias (7:30 h/dia). Não foram encontradas mudanças nos parâmetros de TRAP, TBARS e Carbonil em nenhuma das idades expostas ao CEMUAF. Estes resultados sugerem que os tempos de exposição utilizados não foram suficientes para causar alguma mudança perceptível nos parâmetros de estresse oxidativo. No segundo modelo, utilizou-se o sangue e fígado dos neonatos expostos ao CEMUAF ainda no útero de suas mães durante todo o seu desenvolvimento embrionário (8:30 h/dia). Não foram encontradas mudanças em nenhum parâmetro oxidativo. Foi encontrado um aumento na freqüência de MN nas hemácias, sugerindo um efeito genotóxico da irradiação do celular afetando o tecido hematopoiético dos fetos. No terceiro modelo, utilizou-se o sangue de ratos adultos (180 dias) expostos por 12 dias (8:30 h/dia). Os níveis da hidrólise de ATP e ADP estavam aumentados no grupo irradiado. Nenhum efeito foi observado nas atividades da SOD e da CAT, sugerindo nenhuma participação de radicais livres nestes resultados. Ainda são necessários muitíssimos estudos para determinar quais os mecanismos transdutores dos CEMUAFs em sistemas biológicos e de que forma esta interação ocorre, porém estes resultados sugerem: (a) um papel para os radicais livres sobre, pelo menos, alguns dos efeitos atribuídos aos CEMUAFs e (b) que os organismos em fase de formação podem ser mais sensíveis aos campos. Por fim, sugerimos que sistemas biológicos podem sofrer a ação da irradiação com uma quantidade de energia muito menor do que a esperada para promover algum efeito no metabolismo.
Resumo:
Apresenta o histórico da radioterapia desde o surgimento dos raios-X até os dias atuais, no contexto das ações e controle de combate ao câncer. Estuda a atual situação dos serviços de radioterapia do pais, com destaque para os municipios de São Paulo e Rio de Janeiro, sob a ótica da Economia da Saúde. A análise foi centrada nos recursos materiais, recursos humanos, recursos financeiros e qualidade assegurada em radioterapia, comparados a paises desenvolvidos e em desenvolvimento.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
As pesquisas sobre a percepção de usuários de Unidades de Conservação (UC) oferecem instrumentos para o entendimento de comportamentos e auxiliam na Educação Ambiental (EA) e no Processo de Gestão Ambiental. O plano de manejo de uma UC deve proporcionar condições para aquisição de conhecimentos, habilidades e o desenvolvimento de atitudes visando à participação individual e coletiva das populações associadas às UCs, na gestão dos recursos ambientais, e na concepção e aplicação das decisões que afetam a qualidade dos meios físico, natural e sócio-cultural. O objetivo deste trabalho é estudar a população associada à Floresta Nacional de São Francisco de Paula, contribuindo para a atualização do Plano de Manejo dessa UC, no que se refere ao Programa de Educação e Interpretação Ambiental, Uso Público e Programa de Monitoramento Ambiental, numa perspectiva de inserção dessa comunidade nas questões ambientais. Os dados desta pesquisa quali-quantitativa foram obtidos no período de abril de 2005 a março de 2006, pela técnica de entrevistas estruturadas ou não, registros no diário de campo, fotografias e pesquisa documental. Os entrevistados foram: moradores do entorno legal da FLONA-SFP, coletores de pinhão, técnicos administrativos da FLONA-SFP e visitantes (alunos, professores, pesquisadores, turistas). Concluiu-se, que não existem conflitos entre a população associada e a FLONA-SFP; a população associada, residente no entorno, reconhece a importância da FLONA-SFP, anseia por orientações técnicas e desconhece a existência do Conselho Consultivo da FLONA-SFP; é imprescindível a organização de um Programa de EA com objetivo geral de servir como instrumento de envolvimento e participação pública, abrindo um diálogo com a comunidade a fim de estimular o uso de outros recursos não-madeiráveis como alternativa de renda e uso sustentável da unidade. No que se refere ao Programa de Uso Público da FLONA-SFP para pesquisa, educação e turismo, essa UC atende às necessidades atuais dos usuários. Quanto ao Programa de Monitoramento Ambiental, deve-se dar atenção aos processos de uso de agrotóxicos e às orientações e estímulo à população rural do entorno em relação ao uso de técnicas agrícolas menos impactantes. O plano de manejo da FLONA-SFP deve servir também aos interesses da população associada, que através dos saberes locais, vêm mantendo as premissas básicas para conservação da biodiversidade e sociodiversidade dessa UC.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.