956 resultados para Weibull distribution function
Resumo:
Classical Monte Carlo simulations were carried out on the NPT ensemble at 25°C and 1 atm, aiming to investigate the ability of the TIP4P water model [Jorgensen, Chandrasekhar, Madura, Impey and Klein; J. Chem. Phys., 79 (1983) 926] to reproduce the newest structural picture of liquid water. The results were compared with recent neutron diffraction data [Soper; Bruni and Ricci; J. Chem. Phys., 106 (1997) 247]. The influence of the computational conditions on the thermodynamic and structural results obtained with this model was also analyzed. The findings were compared with the original ones from Jorgensen et al [above-cited reference plus Mol. Phys., 56 (1985) 1381]. It is notice that the thermodynamic results are dependent on the boundary conditions used, whereas the usual radial distribution functions g(O/O(r)) and g(O/H(r)) do not depend on them.
Resumo:
Electron transport in a self-consistent potential along a ballistic two-terminal conductor has been investigated. We have derived general formulas which describe the nonlinear current-voltage characteristics, differential conductance, and low-frequency current and voltage noise assuming an arbitrary distribution function and correlation properties of injected electrons. The analytical results have been obtained for a wide range of biases: from equilibrium to high values beyond the linear-response regime. The particular case of a three-dimensional Fermi-Dirac injection has been analyzed. We show that the Coulomb correlations are manifested in the negative excess voltage noise, i.e., the voltage fluctuations under high-field transport conditions can be less than in equilibrium.
Resumo:
A pruned stand of eucalypt clone underwent five thinning treatments with the removal of different proportion of the planted trees, at different ages: a) 0% - unthinned, b) 35% at 55 months, c) 35% at 81 months, d) 70% at 81 months, removing sprouts in the thinned plant stumps and, e) 70% at 81 months, without coppice sprouts removal. By the age of 141 months, the Weibull distribution showed higher number of trees in the smallest diameter classes for the unthinned treatment. The 70% thinning, with thinned coppice sprouts removal, presented higher number of individuals in the largest diameter classes. Height and yield were the smallest with the removal of 70% of the trees at 81 months, maintaining coppice sprouts. The afterthinning periodic annual increment was greater by thinning 35% of the trees at 55 months resulting in greater number of trees in the largest diameter classes as compared to the other treatments. Yield was higher for the unthinned treatment. The results of this study indicated that thinning 70% of the trees at the age of 81 months, with coppice sprout removal, could be recommended to obtain trees of larger diameter for multiproduct.
Resumo:
An axisymmetric supersonic flow of rarefied gas past a finite cylinder was calculated applying the direct simulation Monte Carlo method. The drag force, the coefficients of pressure, of skin friction, and of heat transfer, the fields of density, of temperature, and of velocity were calculated as function of the Reynolds number for a fixed Mach number. The variation of the Reynolds number is related to the variation of the Knudsen number, which characterizes the gas rarefaction. The present results show that all quantities in the transition regime (Knudsen number is about the unity) are significantly different from those in the hydrodynamic regime, when the Knudsen number is small.
Resumo:
During postharvest, lettuce is usually exposed to adverse conditions (e.g. low relative humidity) that reduce the vegetable quality. In order to evaluate its shelf life, a great number of quality attributes must be analyzed, which requires careful experimental design, and it is time consuming. In this study, the modified Global Stability Index method was applied to estimate the quality of butter lettuce at low relative humidity during storage discriminating three lettuce zones (internal, middle, and external). The results indicated that the most relevant attributes were: the external zone - relative water content, water content , ascorbic acid, and total mesophilic counts; middle zone - relative water content, water content, total chlorophyll, and ascorbic acid; internal zone - relative water content, bound water, water content, and total mesophilic counts. A mathematical model that takes into account the Global Stability Index and overall visual quality for each lettuce zone was proposed. Moreover, the Weibull distribution was applied to estimate the maximum vegetable storage time which was 5, 4, and 3 days for the internal, middle, and external zone, respectively. When analyzing the effect of storage time for each lettuce zone, all the indices evaluated in the external zone of lettuce presented significant differences (p < 0.05). For both, internal and middle zones, the attributes presented significant differences (p < 0.05), except for water content and total chlorophyll.
Resumo:
Celery (Apium graveolens L. var. secalinum Alef) leaves with 50±0.07 g weight and 91.75±0.15% humidity (~11.21 db) were dried using 8 different microwave power densities ranging between 1.8-20 W g-1, until the humidity fell down to 8.95±0.23% (~0.1 db). Microwave drying processes were completed between 5.5 and 77 min depending on the microwave power densities. In this study, measured values were compared with predicted values obtained from twenty thin layer drying theoretical, semi-empirical and empirical equations with a new thin layer drying equation. Within applied microwave power density; models whose coefficient and correlation (R²) values are highest were chosen as the best models. Weibull distribution model gave the most suitable predictions at all power density. At increasing microwave power densities, the effective moisture diffusivity values ranged from 1.595 10-10 to 6.377 10-12 m2 s-1. The activation energy was calculated using an exponential expression based on Arrhenius equation. The linear relationship between the drying rate constant and effective moisture diffusivity gave the best fit.
Resumo:
Solid state nuclear magnetic resonance (NMR) spectroscopy is a powerful technique for studying structural and dynamical properties of disordered and partially ordered materials, such as glasses, polymers, liquid crystals, and biological materials. In particular, twodimensional( 2D) NMR methods such as ^^C-^^C correlation spectroscopy under the magicangle- spinning (MAS) conditions have been used to measure structural constraints on the secondary structure of proteins and polypeptides. Amyloid fibrils implicated in a broad class of diseases such as Alzheimer's are known to contain a particular repeating structural motif, called a /5-sheet. However, the details of such structures are poorly understood, primarily because the structural constraints extracted from the 2D NMR data in the form of the so-called Ramachandran (backbone torsion) angle distributions, g{^,'4)), are strongly model-dependent. Inverse theory methods are used to extract Ramachandran angle distributions from a set of 2D MAS and constant-time double-quantum-filtered dipolar recoupling (CTDQFD) data. This is a vastly underdetermined problem, and the stability of the inverse mapping is problematic. Tikhonov regularization is a well-known method of improving the stability of the inverse; in this work it is extended to use a new regularization functional based on the Laplacian rather than on the norm of the function itself. In this way, one makes use of the inherently two-dimensional nature of the underlying Ramachandran maps. In addition, a modification of the existing numerical procedure is performed, as appropriate for an underdetermined inverse problem. Stability of the algorithm with respect to the signal-to-noise (S/N) ratio is examined using a simulated data set. The results show excellent convergence to the true angle distribution function g{(j),ii) for the S/N ratio above 100.
Resumo:
A mixture of Chlorhexidine digluconate (CHG) with glycerophospholipid 1,2-dimyristoyl- <^54-glycero-3-phospocholine (DMPC-rf54) was analysed using ^H nuclear magnetic resonance. To analyze powder spectra, the de-Pake-ing technique was used. The method is able to extract simultaneously both the orientation distribution function and the anisotropy distribution function. The spectral moments, average order parameter profiles, and longitudinal and transverse relaxation times were used to explore the structural phase behaviour of various DMPC/CHG mixtures in the temperature range 5-60°C.
Resumo:
This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.
Resumo:
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes.
Resumo:
L’objectif de ce mémoire de maîtrise est de développer et de caractériser diverses sources de neutres réactifs destinées à des études fondamentales des interactions plasmas-surfaces. Ce projet s’inscrit dans le cadre d’une vaste étude de la physique des interactions plasmas-parois mises en jeu dans les procédés de gravure par plasma des matériaux de pointe. Une revue de la littérature scientifique sur les diverses méthodes permettant de générer des faisceaux de neutres réactifs nous a permis de sélectionner deux types de sources. La première, une source pyrolitique, a été caractérisée par spectrométrie de masse en utilisant le C2F6 comme molécule mère. Nous avons montré que le C2F6 était dissocié à plus de 90% à 1000ºC et qu’il formait du CF4, lui-même dissocié en CF2 vers 900ºC. Ces résultats ont été validés à l’aide d’un modèle basé sur des calculs d’équilibres chimiques, qui a aussi prédit la formation de F à 1500ºC. La seconde source, un plasma entretenu par une onde électromagnétique de surfaces, a été caractérisée par spectroscopie optique d’émission et par interférométrie haute fréquence. Dans le cas du plasma d’argon créé par un champ électromagnétique (>GHz), nos travaux ont révélé une distribution en énergie des électrons à trois températures avec Te-low>Te-high
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.