986 resultados para Estimação model-assisted
Resumo:
Microwave (MW)-assisted cellulose dissolution in ionic liquids (ILs) has routinely led either to incomplete biopolymer solubilization, or its degradation. We show that these problems can be avoided by use of low-energy MW heating, coupled with efficient stirring. Dissolution of microcrystalline cellulose in the IL 1-allyl-3-methylimidazolium chloride has been achieved without changing its degree of polymerization; regenerated cellulose showed pronounced changes in its index of crystallinity, surface area, and morphology. MW-assisted functionalization of MCC by ethanoic, propanoic, butanoic, pentanoic, and hexanoic anhydrides has been studied. Compared with conventional heating, MW irradiation has resulted in considerable decrease in dissolution and reaction times. The value of the degree of substitution (DS) was found to be DS(ethanoate) > DS(propanoate) > DS(butanoate). The values of DS(pentanoate) and DS(hexanoate) were found to be slightly higher than DS(ethanoate). This surprising dependence on the chain length of the acylating agent has been reported before, but not rationalized. On the basis of the rate constants and activation parameters of the hydrolysis of ethanoic, butanoic, and hexanoic anhydrides in aqueous acetonitrile (a model acyl transfer reaction), we suggest that this result may be attributed to the balance between two opposing effects, namely, steric crowding and (cooperative) hydrophobic interactions between the anhydride and the cellulosic surface, whose lipophilicity has increased, due to its partial acylation. Four ethanoate-based mixed esters were synthesized by the reaction with a mixture of the two anhydrides; the ethanoate moiety predominated in all products. The DS is reproducible and the IL is easily recycled. (C) 2009 Wiley Periodicals, Inc. J Polym Sci Part A: Polym Chem 48: 134-143, 2010
Resumo:
There is a need of scientific evidence of claimed nutraceutical effects, but also there is a social movement towards the use of natural products and among them algae are seen as rich resources. Within this scenario, the development of methodology for rapid and reliable assessment of markers of efficiency and security of these extracts is necessary. The rat treated with streptozotocin has been proposed as the most appropriate model of systemic oxidative stress for studying antioxidant therapies. Cystoseira is a brown alga containing fucoxanthin and other carothenes whose pressure-assisted extracts were assayed to discover a possible beneficial effect on complications related to diabetes evolution in an acute but short-term model. Urine was selected as the sample and CE-TOF-MS as the analytical technique to obtain the fingerprints in a non-target metabolomic approach. Multivariate data analysis revealed a good clustering of the groups and permitted the putative assignment of compounds statistically significant in the classification. Interestingly a group of compounds associated to lysine glycation and cleavage from proteins was found to be increased in diabetic animals receiving vehicle as compared to control animals receiving vehicle (N6, N6, N6-trimethyl-L-lysine, N-methylnicotinamide, galactosylhydroxylysine, L-carnitine, N6-acetyl-N6-hydroxylysine, fructose-lysine, pipecolic acid, urocanic acid, amino-isobutanoate, formylisoglutamine. Fructoselysine significantly decreased after the treatment changing from a 24% increase to a 19% decrease. CE-MS fingerprinting of urine has provided a group of compounds different to those detected with other techniques and therefore proves the necessity of a cross-platform analysis to obtain a broad view of biological samples.
Resumo:
This paper presents the results concerning the degradation of the pesticide carbaryl comparing two methods: electrochemical (EC) and photo-assisted electrochemical (PAEC). The experimental variables of applied current density, electrolyte flow-rate and initial carbaryl concentration were investigated. The results demonstrate that the electrochemical degradation of carbaryl was greatly enhanced when simultaneous UV light was applied. The greatest difference between the PAEC and EC method was apparent when lower current densities were applied. The extent of COD removal was much enhanced for the combined method, independent of the applied current density. It should be noted that the complete removal of carbaryl was achieved with out the need to add NaCl to the reaction mixture, avoiding the risk of chlorinated organic species formation. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
This paper presents a degradation study of the pesticide atrazine using photo-assisted electrochemical methods at a dimensionally stable anode (DSA (R)) of nominal composition Ti/Ru(0.3)Ti(0.7)O(2) in a prototype reactor. The effects of current density, electrolyte flow-rate, as well as the use of different atrazine concentrations are reported. The results indicate that the energy consumption is substantially reduced for the combined photochemical and electrochemical processes when compared to the isolated systems. It is observed that complete atrazine removal is achieved at low current densities when using the combined method, thus reducing the energy required to operate the electrochemical system. The results also include the investigation of the phytotoxicity of the treated solutions.
Resumo:
B3LYP/6-31 + G(d) calculations were employed to investigate the mechanism of the transesterification reaction between a model monoglyceride and the methoxide and ethoxide anions. The gas-phase results reveal that both reactions have essentially the same activation energy (5.9 kcal mol(-1)) for decomposition of the key tetrahedral intermediate. Solvent effects were included by means of both microsolvation and the polarizable continuum solvation model CPCM. Both solvent approaches reduce the activation energy, however, only the microsolvation model is able to introduce some differentiation between methanol and ethanol, yielding a lower activation energy for decomposition of the tetrahedral intermediate in the reaction with methanol (1.1 kcal mol(-1)) than for the corresponding reaction with ethanol (2.8 kcal mol(-1)), in line with experimental evidences. Analysis of the individual energy components within the CPCM approach reveals that electrostatic interactions are the main contribution to stabilization of the transition state. (C) 2009 Elsevier Ltd. All rights reserved.
Brazilian international and inter-state trade flows: an exploratory analysis using the gravity model
Resumo:
Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
A presente tese engloba três artigos sobre diferencial de salários e estimação de demanda no Brasil. O primeiro artigo investiga o diferencial de salários entre os trabalhadores dos setores público e privado. A principal contribuição deste estudo é a estimação de um modelo de regressão com mudança endógena (endogenous switching regression model), que corrige o viés de seleção no processo de escolha setorial realizada pelos trabalhadores e permite a identificação de fatores determinantes na entrada do trabalhador no mercado de trabalho do setor público. O objetivo do segundo trabalho é calcular a elasticidade-preço e a elasticidade-despesa de 25 produtos alimentares das famílias residentes nas áreas rurais e urbanas do Brasil. Para tanto, foram estimados dois sistemas de equações de demanda por alimentos, um referente às famílias residentes nas áreas rurais do país e o outro sistema associado às famílias residentes nas áreas urbanas. O terceiro artigo busca testar a validade do modelo unitário para solteiros(as) e a validade do modelo de racionalidade coletiva de Browning e Chiappori (1998) para casais no Brasil. Para tanto, foi estimado um sistema de demanda do consumo brasileiro com base no modelo QUAIDS, que apresenta uma estrutura de preferências flexível o suficiente para permitir curvas de Engel quadráticas.
Resumo:
Este trabalho tem por objetivo entender, no município do Rio de Janeiro, quais características são mais importantes para no mercado de imóveis residenciais novos. A abordagem de preços hedônicos foi utilizada para a elaboração deste estudo, uma vez que analisa o bem como um pacote de atributos para os quais o consumidor tem preferências. Diversos itens relacionados à caracterização do imóvel e do condomínio, bem como da localização na qual ele se insere, foram analisados. Como parte da metodologia, a econometria foi utilizada para que fosse possível compreender de que forma, e em qual proporção, as variáveis mapeadas se relacionam com o preço final do imóvel. O resultado final aponta que as variáveis mais importantes para o equilíbrio do mercado imobiliário no Rio de Janeiro são: o bairro onde o imóvel está localizado, o tamanho, número de quartos, a diferenciação entre ser apartamento ou casa e o número de unidades no condomínio.
Resumo:
Economias emergentes sofrem importantes restrições de crédito quando comparadas com economias desenvolvidas, entretanto, modelos estocásticos de equilíbrio geral (DSGE) desenhados para economias emergentes ainda precisam avançar nessa discussão. Nós propomos um modelo DSGE que pretende representar uma economia emergente com setor bancário baseado em Gerali et al. (2010). Nossa contribuição é considerar uma parcela da renda esperada como colateral para empréstimos das famílias. Nós estimamos o modelo proposto para o Brasil utilizando estimação Bayesiana e encontramos que economias que sofrem restrição de colateral por parte das famílias tendem a sentir o impacto de choques monetários mais rapidamente devido a exposição do setor bancário a mudanças no salário esperado.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
Este trabalho propõe um novo modelo para avaliação, em tempo discreto, do desconto de reequilíbrio em contratos de concessão rodoviária, a partir de conceitos da Teoria Clássica de Finanças e da Teoria de Opções Reais. O modelo desenvolvido permitiu incorporar flexibilidades decorrentes de incertezas nas situações reais, como decisões gerenciais, vieses de comportamento e componentes políticos, comumente presentes em contratos de concessões rodoviária. Os resultados obtidos, utilizando-se como estudo de caso a BR-262, sinalizaram que há espaço para uma melhor intervenção regulatória com relação ao mecanismo do desconto de reequilíbrio, no sentido de prover melhores incentivos aos concessionários.
Resumo:
Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
O objetivo desta dissertação foi estimar a demanda de tratores agrícolas para o mercado brasileiro no triênio 2016-2018, utilizando-se para isto de técnicas de econometria de séries temporais, neste caso, modelos univariados da classe ARIMA e SARIMA e ou multivariados SARIMAX. Justifica-se esta pesquisa quando se observa a indústria de máquinas agrícolas no Brasil, dados os ciclos econômicos e outros fatores exógenos aos fundamentos econômicos da demanda, onde esta enfrenta muitos desafios. Dentre estes, a estimação de demanda se destaca, pois exerce forte impacto, por exemplo, no planejamento e custo de produção de curto e médio prazo, níveis de inventários, na relação com fornecedores de materiais e de mão de obra local, e por consequência na geração de valor para o acionista. Durante a fase de revisão bibliográfica foram encontrados vários trabalhos científicos que abordam o agronegócio e suas diversas áreas de atuação, porém, não foram encontrados trabalhos científicos publicados no Brasil que abordassem a previsão da demanda de tratores agrícolas no Brasil, o que serviu de motivação para agregar conhecimento à academia e valor ao mercado através deste. Concluiu-se, após testes realizados com diversos modelos que estão dispostos no texto e apêndices, que o modelo univariado SARIMA (15,1,1) (1,1,1) cumpriu as premissas estabelecidas nos objetivos específicos para escolha do modelo que melhor se ajusta aos dados, e foi escolhido então, como o modelo para estimação da demanda de tratores agrícolas no Brasil. Os resultados desta pesquisa apontam para uma demanda de tratores agrícolas no Brasil oscilando entre 46.000 e 49.000 unidades ano entre os anos de 2016 e 2018.