960 resultados para Discrete Data Models
Resumo:
We review several asymmetrical links for binary regression models and present a unified approach for two skew-probit links proposed in the literature. Moreover, under skew-probit link, conditions for the existence of the ML estimators and the posterior distribution under improper priors are established. The framework proposed here considers two sets of latent variables which are helpful to implement the Bayesian MCMC approach. A simulation study to criteria for models comparison is conducted and two applications are made. Using different Bayesian criteria we show that, for these data sets, the skew-probit links are better than alternative links proposed in the literature.
Resumo:
In this paper, we propose a two-step estimator for panel data models in which a binary covariate is endogenous. In the first stage, a random-effects probit model is estimated, having the endogenous variable as the left-hand side variable. Correction terms are then constructed and included in the main regression.
Resumo:
This paper investigates whether or not multivariate cointegrated process with structural change can describe the Brazilian term structure of interest rate data from 1995 to 2006. In this work the break point and the number of cointegrated vector are assumed to be known. The estimated model has four regimes. Only three of them are statistically different. The first starts at the beginning of the sample and goes until September of 1997. The second starts at October of 1997 until December of 1998. The third starts at January of 1999 and goes until the end of the sample. It is used monthly data. Models that allows for some similarities across the regimes are also estimated and tested. The models are estimated using the Generalized Reduced-Rank Regressions developed by Hansen (2003). All imposed restrictions can be tested using likelihood ratio test with standard asymptotic 1 qui-squared distribution. The results of the paper show evidence in favor of the long run implications of the expectation hypothesis for Brazil.
Resumo:
Os modelos hazard, também conhecidos por modelos de tempo até a falência ou duração, são empregados para determinar quais variáveis independentes têm maior poder explicativo na previsão de falência de empresas. Consistem em uma abordagem alternativa aos modelos binários logit e probit, e à análise discriminante. Os modelos de duração deveriam ser mais eficientes que modelos de alternativas discretas, pois levam em consideração o tempo de sobrevivência para estimar a probabilidade instantânea de falência de um conjunto de observações sobre uma variável independente. Os modelos de alternativa discreta tipicamente ignoram a informação de tempo até a falência, e fornecem apenas a estimativa de falhar em um dado intervalo de tempo. A questão discutida neste trabalho é como utilizar modelos hazard para projetar taxas de inadimplência e construir matrizes de migração condicionadas ao estado da economia. Conceitualmente, o modelo é bastante análogo às taxas históricas de inadimplência e mortalidade utilizadas na literatura de crédito. O Modelo Semiparamétrico Proporcional de Cox é testado em empresas brasileiras não pertencentes ao setor financeiro, e observa-se que a probabilidade de inadimplência diminui sensivelmente após o terceiro ano da emissão do empréstimo. Observa-se também que a média e o desvio-padrão das probabilidades de inadimplência são afetados pelos ciclos econômicos. É discutido como o Modelo Proporcional de Cox pode ser incorporado aos quatro modelos mais famosos de gestão de risco .de crédito da atualidade: CreditRisk +, KMV, CreditPortfolio View e CreditMetrics, e as melhorias resultantes dessa incorporação
Resumo:
Este trabalho tem por objetivo discutir detalhadamente o desenvolvimento de métodos de estimação de parâmetros de demanda e oferta em mercados de produtos diferenciados. As técnicas apresentadas consideram explicitamente a endogeneidade dos preços e podem ser aplicadas a diferentes tipos de indústrias. O sistema de demandas de mercado é derivado a partir de modelos de escolha discreta descrevendo o comportamento do consumidor. Esse sistema é então combinado com hipóteses sobre as funções custo e sobre o comportamento de determinação dos preços por parte das firmas para gerar preços e quantidades de equilíbrio. Os parâmetros a ser estimados são os que determinam os custos marginais das firmas e a distribuição dos gostos dos consumidores. Essa distribuição determina elasticidades e estas, combinadas com o custo marginal e com uma hipótese de equilíbrio de Nash na determinação de preços, determinam preços de equilíbrio. Essas elasticidades e parâmetros de custo desempenham um papel central em análises de questões descritivas e de mudanças no ambiente do mercado sob análise.
Resumo:
A indústria bancária brasileira foi transformada nas últimas décadas em meio a um fenômeno conhecido como consolidação, que marca uma concentração do mercado em poucas instituições. O objetivo do trabalho é testar empiricamente quais as causas desse processo no Brasil. As duas hipóteses testadas foram formuladas por Berger, Dick et al. (2007): a hipótese da eficiência indica que avanços tecnológicos melhoram a competitividade dos grandes em relação aos pequenos. Deste modo, os resultados dos pequenos são sacrificados por esse fator. Por outro lado, a hipótese da arrogância afirma que os administradores realizam fusões e aquisições pelos maiores bônus dos grandes conglomerados, mas as deseconomias de escala são superiores aos ganhos competitivos da tecnologia e, com o tempo, os pequenos passam a competir em vantagem. Modelos de dados em painel foram utilizados para testar se houve pressões competitivas durante o processo de consolidação. A conclusão foi de que a hipótese da eficiência explica melhor empiricamente o fenômeno brasileiro, assim como o norte-americano. A pressão para diminuição de receitas financeiras foi o fator determinante para que os bancos pequenos sofressem efeitos deletérios com o aumento do peso dos grandes na indústria.
Resumo:
O estudo da distribuição espacial de pragas é fundamental para elaboração de planos de amostragem para o uso do manejo integrado de pragas. Para o afídeo Toxoptera citricida (Kirkaldy), estudou-se a distribuição espacial em talhões de pomares de citros comerciais de laranja-doce [Citrus sinensis (L.) Osbeck] da variedade Pêra, com 5; 9 e 15 anos de idade, durante o período de setembro de 2004 a abril de 2005. Foram realizadas 14 amostragens de número de T. citricida em intervalos aproximados de 15 dias entre as mesmas, utilizando-se de armadilhas adesivas de cor amarela (0,11 x 0,11 m) fixadas à planta, a 1,5 m de altura aproximadamente. As armadilhas foram distribuídas na área, a cada cinco plantas na linha, em linhas alternadas, totalizando 137 armadilhas no talhão com 5 anos, 140 no talhão com 9 anos e 80 no talhão com 15 anos. Os índices de dispersão utilizados foram: razão variância média (I), índice de Morisita (Idelta), coeficiente de Green (Cx) e expoente k da distribuição Binomial Negativa. O índice que melhor representou a agregação do pulgão foi o expoente k da distribuição Binomial Negativa, e a distribuição binomial negativa foi o modelo que melhor se ajustou aos dados. Através destas análises, verificou-se que a maioria das amostragens apresentou uma distribuição agregada da população de T. citricida.
Resumo:
This work studies two methods for drying sunflower grains grown in the western region of Rio Grande do Norte, in the premises of the Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte - IFRN - Campus Apodi. This initiative was made because of the harvested grain during the harvest, being stored in sheds without any control of temperature, humidity etc. Therewith, many physical, chemical and physiological characteristics are compromised and grains lose much quality for oil production as their germination power. Taking into account that most of the stored grain is used for replanting, the studied methods include drying of grains in a thin layer using an oven with air circulation (fixed bed) and drying in a spouted bed. It was studied the drying of grains in natura, i.e., newly harvested. The fixed bed drying was carried out at temperatures of 40, 50, 60 and 70°C. Experiments in spouted bed were performed based on an experimental design, 2² + 3, with three replications at the central point, where the independent variables were grains load (1500, 2000 and 2500 g) and the temperature of the inlet air (70, 80, and 90 °C), obtaining the drying and desorption equilibrium isotherms. Previously, the characteristic curves of the bed were obtained. Both in the fixed bed as in the spouted bed, drying and desorption curves were obtained by weighing the grains throughout the experiments and measurements of water activity, respectively. The grains drying in the spouted bed showed good results with significant reduction of processing time. The models of FICK and PAGE were fitted to the experimental data, models which will represent the drying of grains both in the fixed bed as in the spouted bed. The desorption curves showed no influence of the processing temperature in the hygroscopic characteristics of the grains. The models of GAB, OSWIN and LUIKOV could well represent the desorption isotherms
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
From the characterization of biophysical attributes of the watershed (slope, soil types, capacity to land use and land cover), this article, used the multi-criteria analysis method – Weighted Linear Combination, defined priority areas for adaptation to the use of land as to its capacity of use. With this methodological approach, were created for the watershed under study, four classes, formed by different combinations of biophysical attributes (discrete data), representing levels of priorities for agricultural land use. The Multicriteria Evaluation in a GIS is suitable for the mapping of priority areas to the suitability of land use in watersheds. The geospatial information on the biophysical environment, generated from the methodological procedures described in this article, has a high positive potential to guide the rational planning of the use of natural resources and territorial occupation, besides serving as a powerful instrument to guide policies and collective processes of decision on the use and land cover.
Resumo:
The aim of this article is to evaluate whether there is an association between decentralization and corruption. In order to do so we analyse Brazilian health-care programmes that are run locally. To construct objective measures of corruption, we use the information from the reports of the auditing programme of the local governments of Brazil. Results point that there is no relationship between decentralization and corruption, whatever the measure of decentralization used.
Resumo:
The Sznajd model is a sociophysics model that is used to model opinion propagation and consensus formation in societies. Its main feature is that its rules favor bigger groups of agreeing people. In a previous work, we generalized the bounded confidence rule in order to model biases and prejudices in discrete opinion models. In that work, we applied this modification to the Sznajd model and presented some preliminary results. The present work extends what we did in that paper. We present results linking many of the properties of the mean-field fixed points, with only a few qualitative aspects of the confidence rule (the biases and prejudices modeled), finding an interesting connection with graph theory problems. More precisely, we link the existence of fixed points with the notion of strongly connected graphs and the stability of fixed points with the problem of finding the maximal independent sets of a graph. We state these results and present comparisons between the mean field and simulations in Barabasi-Albert networks, followed by the main mathematical ideas and appendices with the rigorous proofs of our claims and some graph theory concepts, together with examples. We also show that there is no qualitative difference in the mean-field results if we require that a group of size q > 2, instead of a pair, of agreeing agents be formed before they attempt to convince other sites (for the mean field, this would coincide with the q-voter model).
Resumo:
We report the measurement of direct photons at midrapidity in Au + Au collisions at root s(NN) = 200 GeV. The direct photon signal was extracted for the transverse momentum range of 4 GeV/c < pT < 22 GeV/c, using a statistical method to subtract decay photons from the inclusive photon sample. The direct photon nuclear modification factor R-AA was calculated as a function of p(T) for different Au + Au collision centralities using the measured p + p direct photon spectrum and compared to theoretical predictions. R-AA was found to be consistent with unity for all centralities over the entire measured pT range. Theoretical models that account for modifications of initial direct photon production due to modified parton distribution functions in Au and the different isospin composition of the nuclei predict a modest change of R-AA from unity. They are consistent with the data. Models with compensating effects of the quark-gluon plasma on high-energy photons, such as suppression of jet-fragmentation photons and induced-photon bremsstrahlung from partons traversing the medium, are also consistent with this measurement.