888 resultados para Newton, Willliam


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mestrado, Aquacultura e Pescas (Aquacultura), Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Solving systems of nonlinear equations is a very important task since the problems emerge mostly through the mathematical modelling of real problems that arise naturally in many branches of engineering and in the physical sciences. The problem can be naturally reformulated as a global optimization problem. In this paper, we show that a self-adaptive combination of a metaheuristic with a classical local search method is able to converge to some difficult problems that are not solved by Newton-type methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Blood pressure is a heritable trait influenced by several biological pathways and responsive to environmental stimuli. Over one billion people worldwide have hypertension (≥140 mm Hg systolic blood pressure or  ≥90 mm Hg diastolic blood pressure). Even small increments in blood pressure are associated with an increased risk of cardiovascular events. This genome-wide association study of systolic and diastolic blood pressure, which used a multi-stage design in 200,000 individuals of European descent, identified sixteen novel loci: six of these loci contain genes previously known or suspected to regulate blood pressure (GUCY1A3-GUCY1B3, NPR3-C5orf23, ADM, FURIN-FES, GOSR2, GNAS-EDN3); the other ten provide new clues to blood pressure physiology. A genetic risk score based on 29 genome-wide significant variants was associated with hypertension, left ventricular wall thickness, stroke and coronary artery disease, but not kidney disease or kidney function. We also observed associations with blood pressure in East Asian, South Asian and African ancestry individuals. Our findings provide new insights into the genetics and biology of blood pressure, and suggest potential novel therapeutic pathways for cardiovascular disease prevention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Raised blood pressure (BP) is a major risk factor for cardiovascular disease. Previous studies have identified 47 distinct genetic variants robustly associated with BP, but collectively these explain only a few percent of the heritability for BP phenotypes. To find additional BP loci, we used a bespoke gene-centric array to genotype an independent discovery sample of 25,118 individuals that combined hypertensive case-control and general population samples. We followed up four SNPs associated with BP at our p < 8.56 × 10(-7) study-specific significance threshold and six suggestively associated SNPs in a further 59,349 individuals. We identified and replicated a SNP at LSP1/TNNT3, a SNP at MTHFR-NPPB independent (r(2) = 0.33) of previous reports, and replicated SNPs at AGT and ATP2B1 reported previously. An analysis of combined discovery and follow-up data identified SNPs significantly associated with BP at p < 8.56 × 10(-7) at four further loci (NPR3, HFE, NOS3, and SOX6). The high number of discoveries made with modest genotyping effort can be attributed to using a large-scale yet targeted genotyping array and to the development of a weighting scheme that maximized power when meta-analyzing results from samples ascertained with extreme phenotypes, in combination with results from nonascertained or population samples. Chromatin immunoprecipitation and transcript expression data highlight potential gene regulatory mechanisms at the MTHFR and NOS3 loci. These results provide candidates for further study to help dissect mechanisms affecting BP and highlight the utility of studying SNPs and samples that are independent of those studied previously even when the sample size is smaller than that in previous studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étoile Wolf-Rayet WR 46 est connue pour sa variabilité complexe sur des échelles de temps relativement courtes de quelques heures et sur des échelles de temps plus longues de plusieurs mois. Des décalages périodiques mais intermittents en vitesse radiale ont déjà été observés dans ses raies d’émission optiques. Plusieurs périodes photométriques ont aussi été mesurées dans le passé. Des pulsations non-radiales, une modulation liée à la rotation rapide, ou encore la présence d’un compagnon de faible masse dont la présence reste à confirmer ont été proposées pour expliquer le comportement de l’étoile sur des échelles de temps de quelques heures. Dans un effort pour dévoiler sa vraie nature, nous avons observé WR 46 avec le satellite FUSE sur plusieurs cycles de variabilité à court terme. Nous avons trouvé des variations sur une échelle de temps d’environ 7,5 heures dans le continu ultraviolet lointain, dans l’aile bleue de la composante d’absorption du profil P Cygni du doublet de O vi 1032, 1038, ainsi que dans la composante d’absorption du profil P Cygni de S vi 933, 944. Nous avons également récupéré des données archivées de cette étoile obtenues avec le satellite XMM-Newton. La courbe de lumière en rayons X montre des variations sur une échelle de temps similaire aux courbes de lumière du continu ultraviolet et ultraviolet lointain, et le spectre rayons X de WR 46 est très mou avec un pic d’émission à des énergies plus faibles que 1 keV. Nous discutons des différentes contraintes sur la nature de la variabilité de cette étoile que ces nouvelles observations aident à poser. Parmi les scénarios suggérés, nous concluons que celui des pulsations non-radiales est le plus probable, bien que nous soyons encore loin d’une compréhension détaillée de WR 46.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The current study is aimed at the development of a theoretical simulation tool based on Discrete Element Method (DEM) to 'interpret granular dynamics of solid bed in the cross section of the horizontal rotating cylinder at the microscopic level and subsequently apply this model to establish the transition behaviour, mixing and segregation.The simulation of the granular motion developed in this work is based on solving Newton's equation of motion for each particle in the granular bed subjected to the collisional forces, external forces and boundary forces. At every instant of time, the forces are tracked and the positions velocities and accelarations of each partcle is The software code for this simulation is written in VISUAL FORTRAN 90 After checking the validity of the code with special tests, it is used to investigate the transition behaviour of granular solids motion in the cross section of a rotating cylinder for various rotational speeds and fill fraction.This work is hence directed towards a theoretical investigation based on Discrete Element Method (DEM) of the motion of granular solids in the radial direction of the horizontal cylinder to elucidate the relationship between the operating parameters of the rotating cylinder geometry and physical properties ofthe granular solid.The operating parameters of the rotating cylinder include the various rotational velocities of the cylinder and volumetric fill. The physical properties of the granular solids include particle sizes, densities, stiffness coefficients, and coefficient of friction Further the work highlights the fundamental basis for the important phenomena of the system namely; (i) the different modes of solids motion observed in a transverse crosssection of the rotating cylinder for various rotational speeds, (ii) the radial mixing of the granular solid in terms of active layer depth (iii) rate coefficient of mixing as well as the transition behaviour in terms of the bed turnover time and rotational speed and (iv) the segregation mechanisms resulting from differences in the size and density of particles.The transition behaviour involving its six different modes of motion of the granular solid bed is quantified in terms of Froude number and the results obtained are validated with experimental and theoretical results reported in the literature The transition from slumping to rolling mode is quantified using the bed turnover time and a linear relationship is established between the bed turn over time and the inverse of the rotational speed of the cylinder as predicted by Davidson et al. [2000]. The effect of the rotational speed, fill fraction and coefficient of friction on the dynamic angle of repose are presented and discussed. The variation of active layer depth with respect to fill fraction and rotational speed have been investigated. The results obtained through simulation are compared with the experimental results reported by Van Puyvelde et. at. [2000] and Ding et at. [2002].The theoretical model has been further extended, to study the rmxmg and segregation in the transverse direction for different particle sizes and their size ratios. The effect of fill fraction and rotational speed on the transverse mixing behaviour is presented in the form of a mixing index and mixing kinetics curve. The segregation pattern obtained by the simulation of the granular solid bed with respect to the rotational speed of the cylinder is presented both in graphical and numerical forms. The segregation behaviour of the granular solid bed with respect to particle size, density and volume fraction of particle size has been investigated. Several important macro parameters characterising segregation such as mixing index, percolation index and segregation index have been derived from the simulation tool based on first principles developed in this work.