361 resultados para Penalized spline
The genus Coleodactylus (Sphaerodactylinae, Gekkota) revisited: A molecular phylogenetic perspective
Resumo:
Nucleotide sequence data from a mitochondrial gene (16S) and two nuclear genes (c-mos, RAG-1) were used to evaluate the monophyly of the genus Coleodactylus, to provide the first phylogenetic hypothesis of relationships among its species in a cladistic framework, and to estimate the relative timing, of species divergences. Maximum Parsimony, Maximum Likelihood and Bayesian analyses of the combined data sets retrieved Coleodactylus as a monophyletic genus, although weakly Supported. Species were recovered as two genetically and morphological distinct clades, with C. amazonicus populations forming the sister taxon to the meridionalis group (C. brachystoma, C. meridionalis, C. natalensis, and C. septentrionalis). Within this group, C. septentrionalis was placed as the sister taxon to a clade comprising the rest of the species, C. meridionalis was recovered as the sister species to C. brachystoma, and C natalensis was found nested within C. meridionalis. Divergence time estimates based on penalized likelihood and Bayesian dating methods do not Support the previous hypothesis based on the Quaternary rain forest fragmentation model proposed to explain the diversification of the genus. The basal cladogenic event between major lineages of Coleodactylus was estimated to have occurred in the late Cretaceous (72.6 +/- 1.77 Mya), approximately at the same point in time than the other genera of Sphaerodactylinae diverged from each other. Within the meridionalis group, the split between C. septentrionalis and C. brachystoma + C. meridionalis was placed in the Eocene (46.4 +/- 4.22 Mya), and the divergence between C. brachystoma and C. meridionalis was estimated to have occurred in the Oligocene (29.3 +/- 4.33 Mya). Most intraspecific cladogenesis occurred through Miocene to Pliocene, and only for two conspecific samples and for C. natalensis could a Quaternary differentiation be assumed (1.9 +/- 1.3 Mya). (C) 2008 Elsevier Inc. All rights reserved.
Resumo:
We have studied an agent model which presents the emergence of sexual barriers through the onset of assortative mating, a condition that might lead to sympatric speciation. In the model, individuals are characterized by two traits, each determined by a single locus A or B. Heterozygotes on A are penalized by introducing an adaptive difference from homozygotes. Two niches are available. Each A homozygote is adapted to one of the niches. The second trait, called the marker trait has no bearing on the fitness. The model includes mating preferences, which are inherited from the mother and subject to random variations. A parameter controlling recombination probabilities of the two loci is also introduced. We study the phase diagram by means of simulations, in the space of parameters (adaptive difference, carrying capacity, recombination probability). Three phases are found, characterized by (i) assortative mating, (ii) extinction of one of the A alleles and (iii) Hardy-Weinberg like equilibrium. We also make perturbations of these phases to see how robust they are. Assortative mating can be gained or lost with changes that present hysteresis loops, showing the resulting equilibrium to have partial memory of the initial state and that the process of going from a polymorphic panmictic phase to a phase where assortative mating acts as sexual barrier can be described as a first-order transition. (C) 2009 Published by Elsevier Ltd.
Resumo:
Brazil`s State of Sao Paulo Research Foundation
Resumo:
The shuttle radar topography mission (SRTM), was flow on the space shuttle Endeavour in February 2000, with the objective of acquiring a digital elevation model of all land between 60 degrees north latitude and 56 degrees south latitude, using interferometric synthetic aperture radar (InSAR) techniques. The SRTM data are distributed at horizontal resolution of 1 arc-second (similar to 30m) for areas within the USA and at 3 arc-second (similar to 90m) resolution for the rest of the world. A resolution of 90m can be considered suitable for the small or medium-scale analysis, but it is too coarse for more detailed purposes. One alternative is to interpolate the SRTM data at a finer resolution; it will not increase the level of detail of the original digital elevation model (DEM), but it will lead to a surface where there is the coherence of angular properties (i.e. slope, aspect) between neighbouring pixels, which is an important characteristic when dealing with terrain analysis. This work intents to show how the proper adjustment of variogram and kriging parameters, namely the nugget effect and the maximum distance within which values are used in interpolation, can be set to achieve quality results on resampling SRTM data from 3"" to 1"". We present for a test area in western USA, which includes different adjustment schemes (changes in nugget effect value and in the interpolation radius) and comparisons with the original 1"" model of the area, with the national elevation dataset (NED) DEMs, and with other interpolation methods (splines and inverse distance weighted (IDW)). The basic concepts for using kriging to resample terrain data are: (i) working only with the immediate neighbourhood of the predicted point, due to the high spatial correlation of the topographic surface and omnidirectional behaviour of variogram in short distances; (ii) adding a very small random variation to the coordinates of the points prior to interpolation, to avoid punctual artifacts generated by predicted points with the same location than original data points and; (iii) using a small value of nugget effect, to avoid smoothing that can obliterate terrain features. Drainages derived from the surfaces interpolated by kriging and by splines have a good agreement with streams derived from the 1"" NED, with correct identification of watersheds, even though a few differences occur in the positions of some rivers in flat areas. Although the 1"" surfaces resampled by kriging and splines are very similar, we consider the results produced by kriging as superior, since the spline-interpolated surface still presented some noise and linear artifacts, which were removed by kriging.
Resumo:
In this paper we extend partial linear models with normal errors to Student-t errors Penalized likelihood equations are applied to derive the maximum likelihood estimates which appear to be robust against outlying observations in the sense of the Mahalanobis distance In order to study the sensitivity of the penalized estimates under some usual perturbation schemes in the model or data the local influence curvatures are derived and some diagnostic graphics are proposed A motivating example preliminary analyzed under normal errors is reanalyzed under Student-t errors The local influence approach is used to compare the sensitivity of the model estimates (C) 2010 Elsevier B V All rights reserved
Resumo:
The purpose of this article is to present a new method to predict the response variable of an observation in a new cluster for a multilevel logistic regression. The central idea is based on the empirical best estimator for the random effect. Two estimation methods for multilevel model are compared: penalized quasi-likelihood and Gauss-Hermite quadrature. The performance measures for the prediction of the probability for a new cluster observation of the multilevel logistic model in comparison with the usual logistic model are examined through simulations and an application.
Resumo:
Calculations of local influence curvatures and leverage have been well developed when the parameters are unrestricted. In this article, we discuss the assessment of local influence and leverage under linear equality parameter constraints with extensions to inequality constraints. Using a penalized quadratic function we express the normal curvature of local influence for arbitrary perturbation schemes and the generalized leverage matrix in interpretable forms, which depend on restricted and unrestricted components. The results are quite general and can be applied in various statistical models. In particular, we derive the normal curvature under three useful perturbation schemes for generalized linear models. Four illustrative examples are analyzed by the methodology developed in the article.
Resumo:
O objetivo primordial desse trabalho está concentrado no estudo de Curvas NURBS (B-spline Racional N˜ao-Uniforme). A literatura em português sobre NURBS é escassa, pouco difundida e os textos e artigos existentes tendem a ser rigorosos, longos e teóricos. Assim, o presente estudo está direcionado para os conceitos matemáticos de NURBS, para o qual foi utilizado uma ferramenta chamada DesignMentor com a finalidade de testar os algoritmos desses conceitos. NURBS são funções paramétricas que podem representar qualquer tipo de curva. NURBS são usadas em computação gráfica na indústria de CAD/CAM e estão sendo consideradas um padrão para criar e representar objetos complexos (indústria automobilística, aviação e embarcação). As ferramentas de criação gráfica mais sofisticadas provêem uma interface para usar NURBS, que são flexíveis suficiente para projetar uma grande variedade de formas. Hoje é possível verificar o uso expandido de NURBS, modelando objetos para as artes visuais, arte e escultura; também estão sendo usados para modelar cenas para aplicações de realidade virtual. NURBS trabalha bem em modelagem 3D, permitindo facilidade para manipular e controlar vértices, controlar curvatura e suavidade de contornos. NURBS provêm uma base matemática, unificada para representar formas analíticas e livres além de manter exatidão e independência de resolução matemática.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
A literatura econômica discute há algum tempo as influências da política monetária no nível de produto e emprego de longo-prazo. Paralelo a este debate seminal, surgiram ao longo dos últimos anos discussões sobre os canais de transmissão de política monetária. Dentre o conjunto de canais sugeridos pela literatura, o canal de crédito é um dos que mais tem motivado estudiosos a aprofundarem o conhecimento sobre a sua forma de interação com a economia monetária e real. Por esta razão, este trabalho busca evidências da presença de um canal de crédito no Brasil que funciona através de alterações endógenas no mercado de crédito, mais propriamente através da alteração das condições do balanço dos agentes e de mudanças nos seus custos de agência, que motivam uma queda dos saldos de crédito concedidos a estes. Mas mais do que isto, através dos testes empíricos desenvolvidos, procura-se evidenciar que a presença de um canal de crédito no Brasil é reforçado por exigências regulatórias impostas aos bancos, que os tornam mais conservadores na oferta de crédito marginal ao conjunto de tomadores novos e com operações de crédito já contratadas. Em especial, o teste toma como variável a série de saldos de crédito concedidos ao longo do tempo, baseada em resoluções do Banco Central que normatizam sobre o provisionamento de crédito, em que se supõe que um choque monetário seja capaz de piorar a qualidade do balanço dos agentes, forçando as instituições financeiras a reclassificarem-os para piores classes de risco. Esta reclassificação, por sua vez, deve aumentar a base de crédito sobre a qual residem os maiores percentuais de provisionamento, o que torna os banqueiros mais conservadores e menos desejosos em ofertar crédito para o conjunto de tomadores de maior risco e para os tomadores como um todo.
Resumo:
O propósito deste estudo é compreender como os diferentes membros gerenciam o risco na cadeia de suprimentos global. Por meio de um estudo multicaso na cadeia de exportação da manga brasileira para os Estados Unidos foram investigados os elos fornecedor, exportador, operador logístico e importador. Foi desenvolvido um protocolo de pesquisa conforme sugestão de Yin (2010) e adaptação de instrumento de coleta de dados semi-estruturado de Christopher, et al. (2011). A partir de entrevistas com organizações de apoio ao objeto da pesquisa, foi selecionado a amostra de empresas nas quais o fenômeno de gestão do risco poderia ser melhor observado. Baseado nas classificações de tipo de risco elaboradas por Christopher et al. (2011), é sugerida uma nova organização das categorias de risco (demanda, suprimentos, processo e controle, ambiental e sustentabilidade). Este trabalho apresenta uma descrição da cadeia de exportação de manga, bem como os principais riscos e as estratégias mitigadoras de risco empregadas pelos quatro membros da cadeia estudados. Conforme regra de Sousa (2001), foram realizadas comparações entre os tipos de risco e estratégias mitigadoras observadas na cadeia de suprimentos. Por fim, o estudo mostrou que a gestão do risco é heterogenia entre os membros da cadeia, o exportador é o mais penalizado pela consequência de risco à cadeia e a colaboração é a principal forma observada de mitigação.
Resumo:
Esta dissertação de mestrado considera a transferência de calor combinando convecção e radiação térmica no escoamento de gases participantes em dutos de seção circular. Partindo de uma metodologia geral, o trabalho enfoca principalmente os casos típicos de aplicação em geradores de vapor fumotubulares de pequeno e médio porte, em que gases em alta temperatura escoam através de um tubo mantido em temperatura uniforme. O escoamento é turbulento e o perfil de velocidade é plenamente desenvolvido desde a entrada do duto. A temperatura do gás, contudo, é uniforme na entrada, considerando-se a região de desenvolvimento térmico. Duas misturas de gases são tratadas, ambas constituídas por dióxido de carbono, vapor d’água e nitrogênio, correspondendo a produtos típicos da combustão estequiométrica de óleo combustível e metano. As propriedades físicas dos gases são admitidas uniformes em todo o duto e calculadas na temperatura de mistura média, enquanto que as propriedades radiantes são modeladas pela soma-ponderada-de-gases-cinzas. O campo de temperatura do gás é obtido a partir da solução da equação bidimensional da conservação da energia, sendo os termos advectivos discretizados através do método de volumes de controle com a função de interpolação Flux-Spline; as trocas de energia radiantes são avaliadas por meio do método das zonas, onde cada zona de radiação corresponde a um volume de controle. Em um primeiro passo, a metodologia é verificada pela comparação com resultados apresentados na literatura para a transferência de calor envolvendo apenas convecção e combinando convecção com radiação. Em seguida, discutem-se alguns efeitos da inclusão da radiação térmica, por exemplo, no número de Nusselt convectivo e na temperatura de mistura do gás. Finalmente, são propostas correlações para o número de Nusselt total, que leva em conta tanto a radiação quanto a convecção. Essa etapa exige inicialmente uma análise dos grupos adimensionais que governam o processo radiante para redução do número elevado de parâmetros independentes. As correlações, aplicáveis a situações encontradas em geradores de vapor fumotubulares de pequeno e médio porte, são validadas estatisticamente pela comparação com os resultados obtidos pela solução numérica.
Resumo:
Este trabalho explora um importante conceito desenvolvido por Breeden & Litzenberger para extrair informações contidas nas opções de juros no mercado brasileiro (Opção Sobre IDI), no âmbito da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBOVESPA) dias antes e após a decisão do COPOM sobre a taxa Selic. O método consiste em determinar a distribuição de probabilidade através dos preços das opções sobre IDI, após o cálculo da superfície de volatilidade implícita, utilizando duas técnicas difundidas no mercado: Interpolação Cúbica (Spline Cubic) e Modelo de Black (1976). Serão analisados os quatro primeiros momentos da distribuição: valor esperado, variância, assimetria e curtose, assim como suas respectivas variações.
Resumo:
In a two-period economy with incomplete markets and possibility of default we consider the two classical ways to enforce the honor of financial commitments: by using utility penalties and by using collateral requirements that borrowers have to fulfill. Firstly, we prove that any equilibrium in an economy with collateral requirements is also equilibrium in a non-collateralized economy where each agent is penalized (rewarded) in his utility if his delivery rate is lower (greater) than the payment rate of the financial market. Secondly, we prove the converse: any equilibrium in an economy with utility penalties is also equilibrium in a collateralized economy. For this to be true the payoff function and initial endowments of the agents must be modified in a quite natural way. Finally, we prove that the equilibrium in the economy with collateral requirements attains the same welfare as in the new economy with utility penalties.
Resumo:
The present work analyzes the impact of negative social / environmental events on the market value of supply chain partners. The study offers a contextualized discussion around important concepts which are largely employed on the Operations Management and Management literature in general. Among them, the developments of the literature around supply chains, supply chain management, corporate social responsibility, sustainable development and sustainable supply chain management are particularly addressed, beyond the links they share with competitive advantage. As for the theoretical bases, the study rests on the Stakeholder Theory, on the discussion of the efficient-market hypothesis and on the discussion of the adjustment of stock prices to new information. In face of such literature review negative social / environmental events are then hypothesized as causing negative impact in the market value of supply chain partners. Through the documental analysis of publicly available information around 15 different cases (i.e. 15 events), 82 supply chain partners were identified. Event studies for seven different event windows were conducted on the variation of the stock price of each supply chain partner, valuing the market reaction to the stock price of a firm due to triggering events occurred in another. The results show that, in general, the market value of supply chain partners was not penalized in response to such announcements. In that sense, the hypothesis derived from the literature review is not confirmed. Beyond that, the study also provides a critical description of the 15 cases, identifying the companies that have originated such events and their supply chain partners involved.