28 resultados para combinações híbridas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leishmaniose visceral (LV) ou calazar é uma doença endêmica, crônica, grave e de alta letalidade se não tratada. Os estudos apontam a proteína Lectina Ligante de Manose (MBL), codificada pelo gene MBL2, como uma peça-chave na imunidade inata, dada a sua função no reconhecimento microbiano, na eliminação, inflamação e morte celular. Neste trabalho realizamos um estudo do tipo caso-controle que teve como objetivo investigar a associação entre variantes no gene MBL2 e a suscetibilidade à LV em indivíduos residentes em áreas endêmicas da Ilha de São Luís-MA. A amostra foi constituída por 322 indivíduos, sendo 161 casos com LV, não aparentados, de ambos os sexos, residentes em áreas endêmicas da doença na Ilha de São Luís e 161 controles saudáveis, não infectados e não aparentados da mesma região. A identificação dos casos de LV se deu por meio do contato constante com os principais hospitais e ambulatórios de referência para a doença na cidade. Também foram feitas buscas de pacientes com LV em ambiente domiciliar, a partir de registros da FUNASA-MA. A análise molecular consistiu na genotipagem de 6 variantes localizadas na região promotora [posições -550 (C>G), -221(G>C), +4(C>T)] e codificadora [códons 52 (C>T), 54 (G>A) e 57 (G>A)] do gene MBL2, através da reação em cadeia da polimerase e sequenciamento automático. A dosagem da proteína MBL no soro foi realizada pelo teste de ELISA. Verificamos que os fenótipos MBL dependem do conjunto de alelos presentes no gene MBL2, sendo nítido o efeito que as variantes defectivas causam nos níveis da proteína. Não encontramos diferença significativa entre casos e controles em relação à distribuição dos genótipos MBL2 e dos níveis séricos de MBL. As frequências alélicas das variantes exônicas na amostra total mostram que o alelo A é o mais comum (74,8%) e que os alelos defectivos (B, C e D) se encontram principalmente em heterozigose (36,6%), o que reforça a ideia de que alelos MBL2 defectivos são mantidos na população por conferirem vantagem seletiva aos heterozigotos. Em relação aos 3 principais polimorfismos existentes na região promotora, verificamos ser a variante -221G (Y) a mais frequente (88%) seguida de +4C (P) (73%) e de -550C (L) (67%). Identificamos oito haplótipos em MBL2 num total de 644 cromossomos avaliados, em 30 combinações diferentes, sendo HYPA e LYQA os mais frequentes e HYPD e HYPB os mais raros. Todos os portadores de combinações de haplótipos homozigotos para alelos defectivos apresentaram níveis séricos de MBL indetectáveis. Os genótipos LYQA/LYQA e HYPA/HYPA apresentaram as maiores concentrações médias de MBL no soro. A combinação entre SNPs no éxon 1 e na região promotora do gene MBL2 resulta em grande variação nas concentrações de MBL em indivíduos saudáveis. Consideramos que o conjunto de dados gerados é uma contribuição valiosa que poderá ser expandida para outros cenários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A filosofia viveu um tempo de luminosidade crua em que havia contentamento (pelo menos entre os filósofos dignos de serem estudados) com a postulação das condições de possibilidade que cabiam no horizonte que essa luz podia, então, iluminar. Tudo que escapasse desse horizonte era obscuridade, irracionalidade, mera especulação e, pior de todas as ofensas: metafísica. Mas, alguma filosofia do séc. XX encontrou uma outra distribuição de luminosidade que permitiu um pensamento em claro-escuro, em tonalidades nuançadas em que a nitidez absoluta dos contornos se viu fluidificar, em que as figuras puras e sólidas se mostraram como híbridas, nebulosas derramadas, em que os objetos entraram na história e os homens se misturaram com a natureza, em que os movimentos do mundo e as imagens na consciência saíram da dualidade das qualidades primárias e secundárias e se aventuraram em novas perspectivas (aventuras que ainda atravessam desde a fenomenologia até o cinema). É neste cenário de novas distribuições que reaparece a questão da individuação apontando para uma outra concepção do indivíduo, não mais substancial e suporte de qualidades, não mais ancorado nos pares matéria e forma, atual e potencial. Tais pares se revelam insuficientes por não darem conta das impurezas que vêm à tona e das surpreendentes possibilidades inventadas (simbioses, alianças, infecções) e não somente atualizadas a partir de um potencial (filiação, reprodução). Nesse novo modo de compor, o atributo não mais se remete a um predicado qualidade, mas ao acontecimento, não mais às possibilidades latentes, mas à potência a ser inventada nas composições, nas relações constituintes dos diferentes modos de existência. Simondon foi o primeiro filósofo a levar em conta, de modo específico, o indivíduo se inventando em composição, daí ter renovado a questão da individuação e transformado o estatuto da relação. O ser é relação, tal é, com Simondon, a proposição que passa a figurar no centro do pensamento da individuação. Mas se, por um lado, havia essa promoção da relação, por outro lado, parecia não haver a liberação dos modos que, enfim, remetiam a uma natureza dos possíveis. Mesmo não funcionando como princípio, essa natureza parecia capturar os modos num potencial, de tal maneira que um novo humanismo, tão sufocante quanto qualquer outro, acompanhava toda a produção de Simondon. Não à toa, sua narrativa dos diferentes modos se fecha no encontro de uma unidade capaz de suportar o multirealismo dos híbridos que surgiam por toda parte. As metas, os sentidos do devir que povoam a obra de Simondon não seriam os ecos de uma velha moral da pureza, da luminosidade branca?Para escapar desse rebatimento da aventura dos modos em tipos privilegiados de relação que levavam a restaurar a unidade perdida, era preciso se lançar na inocência do processo das inumeráveis atividades de um tecido sem base, jogo de linhas impuras em cruzamentos inventados a cada momento. Nesse sentido: era o pensamento especulativo, expresso em sua própria escrita em zig-zag, de Whitehead já um antídoto aos possíveis rebatimentos da nova filosofia da individuação num mundo por demais reconhecido? É esse o espírito da composição nesse trabalho: a individuação simondoneana com a insistência em se entregar à aventura inocente dos processos se fazendo que se encontra em Whitehead (e nos muitos aliados que foram convocados para que outras músicas se façam ouvir).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente, vem sendo desenvolvido o uso de catalisadores de metais preciosos suportados por óxidos do tipo perovskita em automóveis. Tais sistemas catalíticos são conhecidos como catalisadores Inteligentes. A tecnologia dos catalisadores inteligentes aponta para um novo futuro na catálise automotiva e surge como um promissor substituinte para os catalisadores convencionais. O entendimento dos principais fatores que levam a auto regeneração destes catalisadores é um passo fundamental no processo de evolução desta tecnologia. O mecanismo de auto regeneração é responsável diretamente pelo aumento considerável do tempo de vida útil destes catalisadores perante aos convencionais. Consequentemente, o seu custo é bem mais baixo comparado ao convencional. Outro fator relevante é a durabilidade estrutural e o grande número de possibilidade de combinações possíveis das perovskita que fazem delas excelentes estruturas para estudo. O objetivo do trabalho é entender o processo auto regenerativo do catalisador automotivo a base de perovskita dopadas com um átomo de cobalto, manganês e níquel e quando expostas a um ambiente com uma molécula de NO e CO , através da análise da interação desses átomos dopantes em relação a estrutura da perovskita e como se comportará o átomo de paládio ao entrar em contato com a molécula de NO e CO

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Chagas é uma zoonose causada pelo protozoário flagelado Trypanosoma cruzi. Estima-se que 8 milhões de pessoas estão infectadas com o T. cruzi em todo o mundo, principalmente na América Latina. Testes tradicionais de diagnóstico estão sendo gradualmente substituídos por métodos inovadores. A utilização de antígenos recombinantes foi proposta nos anos 90, e várias combinações foram testadas com soros de pacientes com diferentes formas clínicas de diferentes regiões da América Latina. Apesar do ganho em especificidade, estes testes apresentaram menor sensibilidade, frustrando expectativas. Este estudo objetivou analisar a variabilidade genética dos genes KMP11 e 1F8 que codificam antígenos comumente utilizados em diagnóstico experimental. Cepas de T. cruzi pertencentes a diferentes sub-grupos taxonômicos e de diferentes regiões foram analisadas para avaliar o impacto da variação antigênica em testes de diagnóstico. Maximizando a sensibilidade, evitar reatividade cruzada com epítopos de outros agentes patogênicos deve permitir a concepção de melhores testes rápidos. Num primeiro passo, DNA genômico foi extraído das seguintes cepas: Dm28c, Colombiana, Y, 3663, 4167, LL014 e CL Brener e foi realizada a amplificação dos genes 1F8 e KMP11 que codificam antígenos a partir destas cepas. Em seguida foram realizadas a clonagem, sequenciamento, expressão e detecção dos antígenos recombinantes. Na etapa final, análises de estruturas secundárias e terciárias, a última apenas para o antígeno 1F8, visualizaram as diferenças nas sequências de aminoácidos obtidas a partir de sequenciamento de DNA. Os resultados apresentados neste estudo mostram que o antígeno KMP11 de T. cruzi possui uma similaridade na sequência de aminoácidos muito elevada com o T. rangeli, mostrando a necessidade de um mapeamento antigênico desta proteína em todos os tripanosomatídeos que apresentaram alta similaridade com o antígeno de T. cruzi, como o T. rangeli, para verificar a presença de epítopos específicos de T. cruzi. O antígeno 1F8 pode ser uma ferramenta útil no diagnóstico da doença de Chagas e que será necessário aprofundar os conhecimentos sobre os determinantes antigênicos para futuramente elaborar poli-epítopos sintéticos adaptados de um maior número possível de antígenos, obtendo a maior especificidade e sensibilidade nos testes de diagnóstico sorológico e de teste rápido da doença de Chagas. Este estudo representa um passo crucial para a otimização de antígenos recombinantes para o diagnóstico da doença de Chagas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é feita a análise dos modos de plasmon que se propagam em um filme metálico que cobre uma fibra óptica generalizada. Os modos de plasmon estudados são: Fuga pela Cobertura (lcv), Ligado Simétrico (Sb), Fuga pelo Núcleo (lcr) e Ligado Assimétrico (ab). Os filmes metálicos, para efeito de comparação, utilizados neste trabalho, são: a prata, o ouro e o paládio. Desenvolveu-se um modelo matemático do fenômeno eletromagnético e um software, que gerou um banco de dados que facilitasse a análise de estruturas, com diversas combinações de parâmetros. Com o banco de dados, foram obtidos diversos gráficos, que permitiram: analisar os modos de plasmon, verificar a atenuação das ondas e o comportamento do campo eletromagnético em cada região da estrutura. As confrontações entre as estruturas com filmes de: prata, ouro e paládio, permitiram concluir que aquelas elaboradas com os filmes de prata e de ouro são as que apresentam menores perdas, portanto, as recomendadas na confecção de sensores. Como a prata é mais acessível que o ouro, aconselha-se a sua utilização. A análise e os resultados deste trabalho são originais na literatura especializada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal desta dissertação foi avaliar a percepção de qualidade de vida relacionada à saúde (QVRS) de adolescentes do 6 ano do ensino fundamental de escolas públicas e privadas do Rio de Janeiro, São Gonçalo e Niterói. Para tal, foi realizado um estudo transversal da linha de base (2010) do Estudo Longitudinal de Avaliação Nutricional de Adolescentes ELANA- com 807 adolescentes entre 10 e 17 anos pertencentes ao 6 ano do ensino fundamental de duas escolas públicas de Niterói e quatro escolas privadas do Rio de Janeiro e São Gonçalo. As informações que subjazem a pesquisa foram obtidas através do autopreenchimento da versão reduzida do instrumento Kidscreen, com 27 itens e 5 dimensões (Saúde e Atividade Física, Bem-estar Psicológico, Autonomia e Relação com os Pais, Amigos e Apoio Social e Ambiente Escolar). Testes T de Student foram usados para avaliar a percepção diferencial de QVRS estratificada por rede de ensino, sexo, faixa etária e posição econômica. Além disso, modelos de regressão linear foram implementados com vista à avaliação de diferentes cenários de percepção de QVRS segundo combinações das variáveis selecionadas para especificação de subgrupos (modelagem de predição). Os resultados apontam para diferenças significativas na percepção de cada dimensão da QVRS entre os subgrupos selecionados ainda que a maior parte dos adolescentes possua uma percepção positiva das mesmas. Destaca-se o subgrupo tipo de escola, onde a percepção de QVRS entre os adolescentes das escolas privadas apresentou-se melhor em comparação aos de escolas públicas em todas as suas dimensões. Ademais, os adolescentes mais velhos (12 a 17 anos), os de escola pública e/ou aqueles com menor posse de bens apresentaram valores considerados ruins ou negativos na dimensão Autonomia e Relação com os Pais. Os cenários de projeção apresentados sugerem certa vulnerabilidade a uma menor QVRS entre alguns dos subgrupos estudados, a saber, as meninas de escolas públicas e com menor posse de bens (Dimensão Saúde e Atividade Física); os adolescentes mais próximos da fase adulta e desfavorecidos economicamente (Bem-estar Psicológico); os estudantes de escolas públicas com menor posse de bens (Autonomia e Relação com os Pais); os meninos de escolas públicas (Amigos e Apoio Social) e os meninos na segunda fase da adolescência (Ambiente Escolar). Espera-se que a divulgação dos resultados desta dissertação possa contribuir com as discussões no campo da saúde coletiva sobre a temática da QVRS, mediante o incentivo de políticas intersetoriais de promoção da saúde escolar, focalizando prioritariamente os subgrupos mais vulneráveis a uma menor QVRS.