52 resultados para Modelos de estimativas

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora a cirurgia de avanço mandibular seja considerada um procedimento altamente estável, existem algumas preocupações clínicas em relação a mudanças nos côndilos e nos segmentos proximais, que podem levar a recidiva sagital e abertura de mordida. A avaliação dos resultados da cirurgia através de ferramentas de geração e superposição de modelos virtuais tridimensionais (3D) permite a identificação e quantificação dos deslocamentos e remodelação óssea que podem ajudar a explicar as interações entre os componentes dentários, esqueléticos e de tecido mole que estão relacionados a resposta ao tratamento. Este estudo observacional prospectivo avaliou, através de tomografia computadorizada de feixe cônico (CBCT), mudanças na posição/remodelação 3D dos ramos mandibulares, côndilos e mento. Assim, exames CBCT de 27 pacientes foram adquiridos antes da cirurgia (T1), imediatamente após a cirurgia(T2), e 1 ano após a cirurgia(T3). Uma técnica automática de superposição na base do crânio foi utilizada para permitir a avaliação das mudanças ocorridas nas regiões anatômicas de interesse (RAI). Os deslocamentos foram visualizados e quantificados em mapas coloridos 3D através da ferramenta de linha de contorno (ISOLINE). Pelo teste t pareado compararam-se as mudanças entre T1-T2 e T2-T3. O coeficiente de correlação de Pearson verificou se os deslocamentos ocorridos nas RAI foram correlacionados entre si e entre os tempos de avaliação. O nível de significância foi determinado em 0,05. O avanço mandibular médio foi de 6,813,2mm em T2 e 6,363,41mm em T3 (p=0,13). Entre T2 e T3, a posição do mento variou positivamente (≥2mm) em 5 pacientes negativamente em 7. 12% dos pacientes sofreram recidivas ≥4mm. Para todas as outras RAI avaliadas, apenas a porção inferior dos ramos (lado direito - 2,342,35mm e lado esquerdo 2,972,71mm) sofreram deslocamentos médios >2mm com a cirurgia. No acompanhamento em longo prazo, esse deslocamento lateral da porção inferior dos ramos foi mantido (lado direito - 2,102,15mm, p=0,26; e lado esquerdo -2,762,80, p=0,46), bem como todos os outros deslocamentos observados (p>0,05). As mudanças na posição do mento foram correlacionadas a adaptações pós-cirúrgicas nos bordos posteriores dos ramos (esquerdo r=-0,73 e direito r=-0,68) e côndilos (esquerdo r=-0,53 e direito r=-0,46). Os deslocamentos médios sofridos pelas estruturas do lado esquerdo foram suavemente maiores do que no direito. Correlações dos deslocamentos ocorridos entre T1-T2 e T2-T3 mostraram que: os deslocamentos dos côndilos esquerdos com a cirurgia foram negativamente correlacionados às adaptações pós-cirúrgicas destes (r=-0,51); e que o deslocamento da porção superior do ramo esquerdo com a cirurgia foi correlacionado à adaptação pós-cirúrgica ocorrida nos bordos posteriores (r=0,39) e côndilos do mesmo lado (r=0,39). Pode-se concluir que: (1) os deslocamentos causados pela cirurgia foram de modo geral estáveis no acompanhamento de 1 ano, mas identificou-se uma considerável variação individual; (2) as mudanças pós-cirúrgicas na posição do mento foram correlacionadas a adaptações sofridas pelos côndilos e bordos posteriores dos ramos; e que (3) deslocamentos suavemente maiores causados pela cirurgia nas estruturas do lado esquerdo levaram a maiores adaptações pós-cirúrgicas no segmento proximal deste lado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos de dispersão de ar têm sido utilizados amplamente para investigação de padrões de dispersão, comportamento de emissões, estimativas de potenciais riscos a saúde humana, elaboração de propostas de gerenciamento ambiental e, também, na previsão de impacto da qualidade do ar. Alguns modelos, homologados por agência de regulação de alguns países ou comunidades, servem de base para as análises de risco com auxílio de simulação. Somente após este tipo de análise uma unidade fabril terá direito à sua instalação e operação nestes países. Nesta dissertação, serão abordados os principais poluentes presentes em uma indústria petroquímica básica, uma revisão sobre os principais tipos de modelos existentes no mercado e um estudo de caso será realizado empregando os modelos AERMOD e OZIPR/SAPRC. A indústria petroquímica básica a servir de modelo será o Complexo Petroquímico do Rio de Janeiro, que deverá ser instalado no município de Itaboraí e com operação prevista para o ano de 2012. De acordo com as simulações realizadas neste trabalho, o poluente NOx apresentou os resultados mais críticos violando em algumas áreas os padrões primários e secundários de emissão. Diante deste fato, o ozônio se tornou um poluente secundário importante a ser analisado. E para sua simulação, premissas tiveram que ser tomadas, devido a ausência de dados, criando cenários que apresentaram resultados díspares: Ora violando os limites, ora se mantendo abaixo deles. Apesar disso, estes cenários apontaram a mesma solução para minimizar esta formação de ozônio: controlar as emissões de compostos orgânicos voláteis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desta dissertação é analisar a demanda por moeda no Brasil no período 1974 a 2008, lembrando que ele inclui sub-períodos de inflação elevada, e baixa, e levando em conta hipóteses alternativas quanto à formação de expectativas. A especificação adotada é a de Tourinho (1995), que generaliza a de Cagan (1956) para permitir uma forma funcional mais flexível e incorporar outras variáveis, além da inflação esperada, como variáveis explicativas. Verifica-se que estas extensões são importantes para modelar a demanda por saldos monetários reais no período aqui considerado. A forma funcional semi-log de Cagan é rejeitada, em favor de uma forma funcional flexível Box-Cox, e os coeficientes da taxa de juros real e da variância da inflação são significativos, mostrando a importância destas variáveis serem inseridas ao modelo. A função estimada para o período completo é comparada com aquelas estimadas para os sub-periodos de inflação alta e moderada, para verificar a estabilidade da formulação adotada. Conclui-se que se pode rejeitar a hipótese de que ela é estável. O modelo de Cagan é generalizado aqui em outra dimensão, considerando mecanismos alternativos de formação de expectativas, que podem ser adaptativas, como no modelo original, ou racionais. A hipótese de que expectativas adaptativas sejam racionais é também considerada. Conclui-se que a imposição da condição de racionalidade ao modelo com expectativas adaptativas não produz alterações importantes nos valores estimados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pseudomonas aeruginosa é um importante agente de pneumonia, particularmente em pacientes submetidos à ventilação mecânica, que pode evoluir para sepse, com elevadas taxas de letalidade. Na sepse, o processo inflamatório sistêmico exacerbado favorece o desequilíbrio entre as vias de coagulação e fibrinólise e a instalação de um estado pró-coagulante, com o aparecimento de trombose microvascular, coagulação intravascular disseminada e falência de múltiplos órgãos. Conhecendo a potente atividade pró-inflamatória da toxina ExoU produzida por P. aeruginosa, decorrente de sua atividade fosfolipásica A2, o objetivo desta tese foi investigar seu potencial de indução de alterações hemostáticas relacionadas à patogênese da sepse. Utilizando modelo de sepse em camundongos inoculados, por via intratraqueal, com suspensões de P. aeruginosa produtora de ExoU (PA103) ou de cepa com deleção do gene exoU, não produtora da toxina, foi mostrado que ExoU determinou maior gravidade da infecção, maior taxa de letalidade, leucopenia, trombocitose, hiperpermeabilidade vascular e transudação plasmática, evidenciadas, respectivamente, pela maior concentração de proteínas nos lavados broncoalveolares (LBAs) e acúmulo do corante Azul de Evans, previamente inoculado nos animais, por via endovenosa, no parênquima renal. ExoU favoreceu, também, a ativação plaquetária, confirmada pela maior concentração de plaquetas expressando P-selectina em sua superfície, maior número de micropartículas derivadas de plaquetas e maior concentração plasmática de tromboxano A2. A histopatologia dos pulmões e rins dos animais infectados com PA103 confirmou a formação de microtrombos, que não foram detectados nos animais controles ou infectados com a cepa mutante. Nos pulmões, a produção de ExoU determinou intensa resposta inflamatória com maior concentração de leucócitos totais e polimorfonucleados, interleucina-6 e fator de necrose tumoral-α nos LBAs. A análise imunohistoquímica mostrou intensa deposição de fibrina nos alvéolos e septos interalveolares. A atividade pró-coagulante dependente do fator tissular detectada nos LBAs dos camundongos infectados com PA103 foi independente da produção do inibidor da via de ativação do fator tissular (TFPI), mas associada ao aumento da produção do inibidor do ativador do plasminogênio-1 (PAI-1). Para investigar a participação do fator de ativação plaquetária (PAF) na liberação de PAI-1, foi pesquisada a atividade da enzima PAF-acetil-hidrolase (PAF-AH) nos LBAs dos camundongos. A atividade de PAF-AH apresentou-se significativamente elevada nos LBA dos camundongos infectados com PA103. O tratamento dos animais com um inibidor do PAF, antes da infecção, resultou na diminuição significativa das concentrações de PAI-1 e de leucócitos totais, bem como da atividade pró-coagulante dos LBAs. In vitro, ExoU induziu maior expressão do RNA mensageiro de PAI-1 e maior liberação da proteína PAI-1 nos sobrenadantes de células epiteliais respiratórias da linhagem A549. O tratamento das células A549 com um anticorpo anti-receptor de PAF, antes da infecção, reduziu significativamente a concentração de PAI-1 nos sobrenadantes de células infectadas com a cepa selvagem. Estes resultados demonstraram um novo mecanismo de virulência de P. aeruginosa através da atividade pró-trombótica de ExoU e a possibilidade de utilização da identificação de ExoU em isolados clínicos de pacientes graves como um marcador prognóstico para estes pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para a maioria dos municípios brasileiros, a instalação de um aterro sanitário é um desafio, sendo uma das dificuldades o custo elevado. Existem algumas formas de mitigar estes custos e uma delas é através do mercado de emissões. Com planejamento prévio suficiente, é possível queimar o metano gerado através da degradação do resíduo, podendo resultar em benefícios para o aterro tanto através do aproveitamento (geração de energia ou venda direta) quanto recebimento de algum tipo de certificado de emissões negociável. Incluído neste planejamento prévio suficiente está a realização da estimativa ex-ante de emissão de metano para saber previamente qual será o aproveitamento mais indicado e a eventual receita oriunda da queima. Quando analisados os projetos de MDL feitos em aterros sanitários, pode ser notado que estas estimativas são muitas vezes mal feitas, gerando valores estimados muito acima do realmente observado durante a operação. Este erro acarreta uma perda de credibilidade deste tipo de projeto, já que o número esperado é raramente alcançado. Existem alguns fatores que contribuem para esta discrepância de valores, sendo problemas operacionais (como exemplo podem ser citados deficiência no sistema de captura do biogás e problemas na captação e recirculação de lixiviado) e de modelagem (utilização de valores de entrada experimentais obtidos sob situações muito diferentes das encontradas nos aterros brasileiros, por exemplo) os possíveis principais vilões. Este trabalho visa apresentar e discutir os principais problemas na realização de estimativas prévias de emissão de metano em aterros sanitários utilizando projetos brasileiros de MDL registrados e que estejam atualmente emitindo créditos de carbono como base para analisar a qualidade das estimativas feitas atualmente. Além disto, busca-se também entrevistar profissionais da área para tentar obter diferentes pontos de vista sobre esta questão. Fica claro que os valores estimados, de um modo geral, são entre 40 e 50% superiores aos observados. Metade dos especialistas aponta problemas operacionais diversos como os principais contribuintes desta diferença, mas problemas na modelagem parecem influenciar decisivamente na realização das estimativas. A utilização de valores de entrada no modelo precisa ser criteriosamente analisada e devem ser utilizados números obtidos através de pesquisas que representem a realidade do aterro em questão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se a escrita pessoal precisa sobreviver como habilidade individual perante as novas técnicas de produção textual, parece-nos necessária uma análise da escrita manual sob uma nova perspectiva. Num universo regido pelas mídias tecnológicas, no qual o computador pode ser visto como uma verdadeira extensão do homem, qual o lugar da escrita manual na atualidade? E, ainda: acreditando que o design pode auxiliar o educador, de que forma o mesmo pode interferir na aquisição da escrita manual e na formação de uma escrita legível e funcional? O presente projeto de pesquisa procura lançar luzes sobre este tema a partir de uma síntese dos principais modelos de escrita adotados na educação fundamental no Brasil durante o século XX. Para tanto, vamos elencá-los e analisá-los buscando relações e pontos comuns entre esses modelos e apontando para uma reflexão futura, calcada no campo do design e, em especial, da tipografia, tendo a aquisição da escrita como pano de fundo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Como uma medida sintética do grau de fragmentação da produção, muitos estudos recentes tem se empenhado em coletar evidências da especialização vertical para as economias desenvolvidas, mas pouca atenção tem sido aplicada às economias em desenvolvimento e, em particular, para o Brasil. A contribuição chave desta dissertação é prover estimativas comparáveis da especialização vertical refletidas no conteúdo importado das exportações do Brasil. Com base nas matrizes de insumo-produto (MIP) do Instituto Brasileiro de Geografia e Estatística (IBGE) de 1990 a 1996 e nas mais recentes 2000 e 2005, foi estimado que o conteúdo importado das exportações brasileiras é em média 10,4% de 1990 a 1996 e 15% para 2000 e 2005. Estimativas do conteúdo importado desagregadas por atividades também foram obtidas para os anos 1990, 1995, 2000 e 2005.