999 resultados para Tanques - Modelos
Resumo:
Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.
Resumo:
O aumento da prevalência da obesidade e osteoporose, bem como a identificação de mecanismos comuns que ligam a osteogênese e a adipogênese, sugerem que a obesidade e osteoporose podem ser distúrbios relacionados, e além disso, ambos podem ter suas origens no início da vida. Em 3 modelos diferentes de plasticidade ontogenética foi observado obesidade na vida adulta. Sendo assim, o objetivo deste trabalho foi investigar o impacto desses 3 modelos, o desmame precoce mecânico (DPM) e o farmacológico (DPF), e a supernutrição neonatal (SN) no tecido ósseo da prole durante o desenvolvimento. Para tanto, 2 experimentos foram realizados. No experimento 1, ratas lactantes foram divididas em 3 grupos: controle - os filhotes tiveram livre acesso ao leite durante toda a lactação; DPM - as mães foram envolvidas com uma atadura nos últimos 3 dias de lactação; DPF - as mães foram tratadas com bromocriptina (0,5 mg/duas vezes/dia) 3 dias antes do desmame padrão. No experimento 2, o tamanho da ninhada foi reduzido para 3 filhotes machos no 3o dia de lactação até o desmame (SN); o grupo controle permaneceu com 10 filhotes durante toda a lactação. Realizou-se absorciometria de raios-x de dupla energia, tomografia computadorizada, microtomografia computadorizada, teste biomecânico e análises séricas. Os dados foram considerados significativos quando P<0,05. No experimento 1, ao desmame, os filhotes DPM e DPF apresentaram menor massa corporal, massa gorda, densidade mineral óssea total (DMO), conteúdo mineral ósseo total (CMO), área óssea e osteocalcina sérica, e maior telopeptídeo carboxi-terminal do colágeno tipo I (CTX-I). O cálcio ionizado sérico foi menor apenas na prole DPM, a 25-hidroxivitamina D (25(OH)D) foi maior e o PTH menor apenas na prole DPF. Aos 180 dias, as proles DPM e DPF apresentaram maior massa corporal, maior massa de gordura visceral, hiperleptinemia, maior 25(OH)D e menor CTX-I. Ambos os grupos apresentaram aumento da DMO total, do CMO, da DMO da coluna vertebral e da área óssea aos 150 e 180 dias de idade. Nas avaliações ósseas individuais, as proles DPM e DPF também apresentaram aumento da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea. No experimento 2, observamos aumento da massa corporal, da massa gorda e da massa magra, do CMO e da área óssea no grupo SN desde o desmame até a idade adulta. Aos 180 dias, a prole SN também apresentou aumento da DMO total, da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea, maior osteocalcina e menor CTX-I. Demonstramos que, apesar de fatores de imprinting opostos, ambos os modelos causam melhora da massa, do metabolismo, da qualidade e da resistência óssea. Porém, parece que este efeito protetor sobre o tecido ósseo não é um resultado direto da programação deste tecido, mas sim consequência das alterações fisiopatológicas da obesidade programada pelos três modelos.
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.
Resumo:
Esta é uma pesquisa sobre o uso de metáforas na construção de modelos por parte do físico escocês James Clerk Maxwell. O objetivo da pesquisa foi buscar compreender de que maneira o uso de metáforas e modelos é legítimo na ciência e em que medida contribui para seu sucesso. Além disso, busca compreender em que medida o uso de artifícios como modelos e analogias entre ramos distintos da ciência são impulsionadores de sucesso explicativo e preditivo da teoria do físico estudado. Explora as crenças teológicas e filosóficas do autor, que vê o mundo como unidade, permitindo a analogia entre ramos distintos da física. Seus desenvolvimentos em torno de teorias como calor, cores, óptica, magnetismo e eletricidade permitem evidenciar essa visão em todo o seu trabalho. Maxwell é considerado inaugurador de nova metodologia com o uso de modelos e metáforas. Explora o desenvolvimento da teoria das cores, da descrição matemática da estabilidade dos anéis de Saturno e o desenvolvimento da teoria dos gases como preâmbulo à discussão da teoria do eletromagnetismo. Descreve o desenvolvimento teórico do eletromagnetismo em seus diversos momentos. A construção da teoria do eletromagnetismo evidencia paulatino abandono do mecanicismo, uso intenso de modelos e metáforas temporários e ênfase na quantificação e no uso de experimentos. Discute o relacionamento de Maxwell com as discussões filosóficas, sociais e teológicas de sua época, seu engajamento em atividades práticas nesse sentido e suas influências científicas e filosóficas. Descreve e discute os textos filosóficos do cientista, em que se evidenciam sua ontologia, suas crenças teológicas e sua concepção de analogias. Discute a questão do uso de analogias em ciência e compara diversos autores que abordam o tema. A metodologia utilizada foi a de levantamento bibliográfico com análise crítica da literatura do autor e de seus comentadores, além de comentário crítico sobre os textos primários e secundários. Conclui que o sucesso científico de Maxwell deve-se à sua aposta numa unidade do mundo garantida por Deus, bem como na unidade entre o mundo e a mente humana, posturas que mostraram ser bem-sucedidas quando aplicadas à metodologia científica. Conclui também pela legitimidade e necessidade do uso de metáforas e modelos no empreendimento científico.
Resumo:
O atual nível das mudanças uso do solo causa impactos nas mudanças ambientais globais. Os processos de mudanças do uso e cobertura do solo são processos complexos e não acontecem ao acaso sobre uma região. Geralmente estas mudanças são determinadas localmente, regionalmente ou globalmente por fatores geográficos, ambientais, sociais, econômicos e políticos interagindo em diversas escalas temporais e espaciais. Parte desta complexidade é capturada por modelos de simulação de mudanças do uso e cobertura do solo. Uma etapa do processo de simulação do modelo CLUE-S é a quantificação da influência local dos impulsores de mudança sobre a probabilidade de ocorrência de uma classe de uso do solo. Esta influência local é obtida ajustando um modelo de regressão logística. Um modelo de regressão espacial é proposto como alternativa para selecionar os impulsores de mudanças. Este modelo incorpora a informação da vizinhança espacial existente nos dados que não é considerada na regressão logística. Baseado em um cenário de tendência linear para a demanda agregada do uso do solo, simulações da mudança do uso do solo para a microbacia do Coxim, Mato Grosso do Sul, foram geradas, comparadas e analisadas usando o modelo CLUE-S sob os enfoques da regressão logística e espacial para o período de 2001 a 2011. Ambos os enfoques apresentaram simulações com muito boa concordância, medidas de acurácia global e Kappa altos, com o uso do solo para o ano de referência de 2004. A diferença entre os enfoques foi observada na distribuição espacial da simulação do uso do solo para o ano 2011, sendo o enfoque da regressão espacial que teve a simulação com menor discrepância com a demanda do uso do solo para esse ano.
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
A obesidade, cuja origem é multifatorial e a prevalência é crescente em diferentes regiões no mundo, está geralmente associada à produção desregulada de adipocinas, ao aumento do estresse oxidativo e à ocorrência de distúrbios metabólicos como dislipidemia, intolerância à glicose e hipertensão. A Programação Metabólica ou Plasticidade Ontogenética tem sido proposta como um importante fator na etiologia da obesidade. Este fenômeno sugere que alterações nutricionais, hormonais e ambientais durante períodos críticos do desenvolvimento, tais como gestação e lactação, podem alterar a fisiologia e o metabolismo de um organismo provocando o desenvolvimento de distúrbios metabólicos na vida adulta. Neste trabalho foram estudados dois modelos de plasticidade ontogenética que programam ratos Wistar para obesidade na vida adulta: a supernutrição na lactação e o desmame precoce. A supernutrição na lactação provocada pela redução da ninhada causou obesidade, hiperfagia, aumento do estresse oxidativo, resistência hepática à ação da insulina e esteatose nas proles na idade adulta. A desnutrição, provocada pelo desmame precoce, também se associou na idade adulta com obesidade visceral, aumento do estresse oxidativo e esteatose, assim como dislipidemia, resistência à insulina, hipertensão arterial e resistência central à leptina. No modelo de programação pelo desmame precoce, os animais adultos foram tratados com resveratrol (30mg/kg/MC), um polifenol encontrado nas uvas e conhecido por seus efeitos antioxidante e hipoglicemiante, por 30 dias. Os animais programados pelo desmame precoce que receberam resveratrol tiveram massa corporal, gordura visceral e morfologia hepática semelhantes aos animais controles. Ainda, o resveratrol normalizou a pressão arterial, a dislipidemia, a glicemia e as concentrações de adiponectina e leptina. A normalização da leptinemia esteve associada à correção da resistência central à leptina nestes animais, uma vez que o resveratrol normalizou além da ingestão, o conteúdo hipotalâmico de JAK2, pSTAT3 e NPY. Portanto, os animais programados pela supernutrição na lactação ou pelo desmame precoce apresentaram aumento do estresse oxidativo associado à obesidade e alterações metabólicas como esteatose. O tratamento com resveratrol nos animais programados pelo desmame precoce preveniu o aumento de estresse oxidativo, obesidade visceral, resistência à insulina, dislipidemia e esteatose. Além disso, o resveratrol causou normalização da leptinemia nestes animais, assim como da ação deste hormônio no hipotálamo, controlando a hiperfagia característica deste modelo.
Resumo:
A asma é um distúrbio crônico pulmonar caracterizado por inflamação, obstrução e remodelamento brônquico, levando a sintomas como sibilo, tosse e falta de ar. A terapia antiasmática consiste em corticosteroides inalados e agonistas β2 de curta ou longa duração. O tratamento é limitado por efeitos colaterais e refratariedade de alguns pacientes, justificando a necessidade de novas terapias. Estudos demonstram que a 15-deoxy-delta- 12,14-prostaglandina J2 (15d-PGJ2), um ligante endógeno de receptores ativados por proliferadores de peroxissomos do tipo gama (PPAR-γ), é capaz de reduzir a expressão de citocinas pró-inflamatórias, o que pode resultar em benefícios no tratamento de doenças com esse perfil. O objetivo deste estudo foi avaliar o potencial anti-inflamatório e antiasmático da 15d-PGJ2 em modelos experimentais de asma. Camundongos A/J machos foram sensibilizados nos dias 0 e 7 através de injeção subcutânea (s.c.), contendo ovoalbumina (OVA) e Al(OH)3, e desafiados com 4 instilações intranasais (i.n.) de OVA em intervalos semanais. O tratamento com 15d-PGJ2 (30 e 100 g/Kg, s.c.) foi realizado 30 min antes dos desafios a partir da terceira provocação antigênica. Em outro modelo, camundongos A/J foram desafiados intranasalmente com extrato de ácaro 3 vezes por semana durante 3 semanas. As administrações de 15d-PGJ2 (30, 70 e 100 g/Kg, s.c. e 0,65; 1,5 e 2,3 g/animal, i.n.) foram realizadas a partir da 3 semana, 30 min antes dos desafios. As análises ocorreram 24 h após o último desafio. Nossos resultados mostraram que, em camundongos previamente sensibilizados e desafiados com OVA, a administração de 15d-PGJ2 limitou significativamente o influxo peribrônquico de eosinófilos e neutrófilos, bem como a produção de muco por células caliciformes e fibrose sub-epitelial, além da hiperreatividade das vias aéreas e produção de IL-5. A redução do epitélio brônquico e das citocinas IL-13 e TNF-α foram observadas somente na maior dose administrada. No modelo HDM a inflamação e o remodelamento foram atenuados em todas as doses administradas do composto, enquanto que a hiperresponssividade brônquica foi inibida apenas nas doses de 70 e 100 μg/Kg (via sistêmica) e na dose intermediária dada topicamente (1,5 μg/animal, i.n.). Os níveis de citocinas foram atenuados pelo tratamento subcutâneo, porém somente os níveis de IL-17, eotaxina-1 e TNF-α foram inibidos com a dose intranasal de 0,65 g/animal. O aumento da expressão de NF-κB, induzido por provocação com HDM também foi reduzido significativamente pela administração de 15d-PGJ2. Em conjunto, nossos dados indicam que o tratamento com 15d-PGJ2 inibe alterações cruciais associadas à patogênese da asma, em modelos experimentais distintos da doença, demonstrando possuir grande potencial para controlar e reverter inflamação, hiperreatividade e remodelamento pulmonar desencadeados por provocação alérgica.
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
Além dos elementos que integram a estrutura dos processos de democratização, este trabalho aborda o conjunto de medidas existentes para lidar com os problemas resultantes dos períodos de transição política, a partir da análise crítica dos modelos utilizados no curso da genealogia da justiça de transição. Na parte dedicada à crítica ao modelo de transição negociada, verificamos que, durante a segunda fase da genealogia, os estudos sobre os processos de transição adotaram como parâmetro de avaliação uma noção procedimental e elitista de democracia. Já na crítica aos modelos de primeira e terceira fases, observamos uma ênfase excessiva em um modelo retributivo de justiça de transição, que é encarado como ideal absoluto. Por fim, aplicamos as conclusões teóricas parciais a um estudo de caso, debruçando-nos sobre os mecanismos de justiça de transição manejados no Brasil.
Resumo:
Este artigo compara a habilidade preditiva foradaamostra de um modelo DSGE (DynamicStochastic General EquilibriumModel)Novo-Keynesiano, especificado e estimado para o Brasil, com a de um modelo Autorregressivo Vetorial (VAR) e com a de um modelo AutorregressivoVetorial Bayesiano (BVAR). O artigo inova em relação a outros trabalhos similares feitos para o Brasil (Castro et al. (2011) e Caetano e Moura (2013)), ao escolher uma especificação para o modelo DSGE que, ao permitir o uso de um conjunto de informação mais rico, tornou possível computar-se a habilidade preditiva do DSGE a partir de previsões que são,verdadeiramente,previsõesfora da amostra. Ademais, diferentemente de outros artigos que utilizaram dados brasileiros, avalia-se em que medida as respostas das variáveis aos choques na política monetária e no câmbio, obtidas pelo modelo DSGE, se assemelham àquelas de um BVAR estimado através de procedimentos bayesianos desenvolvidos de forma consistente. O modelo DSGE estimado é similar ao utilizado por Justiniano e Preston (2010) e Alpanda (2010). O modelo BVAR foi estimado utilizando uma metodologia semelhante à desenvolvida por Sims e Zha (1998), Waggoner e Zha (2003) e Ramírez, Waggoner e Zha (2007).Os resultados obtidos mostram que o modelo DSGE é capaz de gerar, para algumas variáveis, previsões competitivas em relação às dos outros modelos rivais VAR e BVAR. Além disso, as respostas das variáveis aos choques nas políticas monetária e cambial, nos modelos DSGE e BVAR, são bastante similares.
Resumo:
A teoria magneto-hidrodinâmicos permite a estruturação de modelos computacionais, designados modelos MHDs, que são uma extensão da dinâmica dos fluidos para lidar com fluidos eletricamente carregados, tais como os plasmas, em que se precisa considerar os efeitos de forças eletromagnéticas. Tais modelos são especialmente úteis quando o movimento exato de uma partícula não é de interesse, sendo que as equações descrevem as evoluções de quantidades macroscópicas. Várias formas de modelos MHD têm sido amplamente utilizadas na Física Espacial para descrever muitos tipos diferentes de fenômenos de plasma, tais como reconexão magnética e interações de ventos estelares com diferentes objetos celestiais. Neste trabalho, o objetivo é analisar o comportamento de diversos fluxos numéricos em uma discretização de volumes finitos de um modelo numérico de MHD usando um esquema de malha entrelaçada sem separação direcional considerando alguns casos testes. Para as simulações, utiliza-se o código Flash, desenvolvido pela Universidade de Chicago, por ser um código de amplo interesse nas simulações astrofísicas e de fenômenos no espaço próximo à Terra. A metodologia consiste na inclusão de um fluxo numérico, permitindo melhoria com respeito ao esquema HLL.