610 resultados para calcul variationnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les adolescents-hockeyeurs peuvent être affligés de troubles musculosquelettiques (TMS) résultant d’un excès de tension musculaire lequel peut mener à des déformations ou déséquilibres musculaires ainsi qu’à une attitude posturale inadéquate. Les conséquences de ces changements mènent souvent à une surcharge inutile du système musculosquelettique (SMS), à la perturbation des mécanismes du contrôle postural et éventuellement à l’apparition de douleurs musculaires et articulaires. Les interventions qui s’attaquent aux TMS par une rééquilibration de la tension musculaire sont peu nombreuses. Les interventions qui s’attaquent aux TMS par une normalisation de la tension musculaire sont peu nombreuses. La Reconstruction Posturale® (RP), testée cliniquement, est l’une d’entre elles. Dans un premier temps, cette thèse visait à identifier les caractéristiques du contrôle postural chez les adolescents-hockeyeurs de niveau élite lorsque le système somatosensoriel est mis à l’épreuve en position debout quasi statique pieds nus et en patins. Dans un deuxième temps, nous avons évalué l’impact d’une intervention en RP sur des variables cliniques et biomécaniques, chez ces athlètes qui souffrent de TMS. Soixante-sept adolescents-hockeyeurs de niveau élite âgés de 15 à 18 ans ont participé à l’étude. Le contrôle postural de cinquante-sept joueurs a été évalué en position debout sur deux plateformes de force les yeux ouverts et les yeux fermés, pieds nus sur une surface dure et sur une mousse. De ce groupe, trente-cinq sujets ont également été évalués en patins, les yeux ouverts et les yeux fermés. Par la suite, neuf adolescents-hockeyeurs souffrant de TMS, ont été sélectionnés pour participer au protocole d’intervention thérapeutique en RP qui consistait en l’application de six séances de thérapie prodiguées sur une période de six semaines. Le déplacement du centre de pression (CP) sous les pieds a été calculé dans les directions antéro-postérieure (AP) et médio-latérale (ML). La vélocité moyenne du CP, le déplacement moyen du CP et l’étendue du CP ont été retenus pour rendre compte de la performance du contrôle posturale. D’autre part, l’asymétrie de mise en charge, la trajectoire du CP sous les pieds gauche et droit, le CPc pour rendre compte de la stratégie de chevilles et le CPv pour rendre compte de la stratégie de hanches ont été retenues pour identifier les stratégies utilisées pour maintenir l’équilibre. L’impact de l’intervention en RP a été évalué à l’aide de trois variables cliniques soit la douleur à l’aide de l’échelle visuelle analogue (ÉVA), la capacité fonctionnelle à l’aide d’un un questionnaire autoadministré et des photographies de la posture debout pour rendre compte des variables posturales biomécaniques. Nos résultats montrent que chez les adolescents-hockeyeurs la performance du contrôle postural en position debout statique est davantage perturbée par les changements somatosensoriels en direction ML alors qu’en AP, la perte d’informations visuelles ainsi que des changements somatosensoriels affectent la performance. Dans toutes les conditions expérimentales et dans les deux directions, nous avons observé une vélocité du CP remarquablement élevée, variant entre 18 et 22 mm/s. Au niveau des stratégies et indépendamment de la condition expérimentale, nous avons observé une dominance presque complète de la stratégie de cheville en AP alors qu’en ML, la stratégie de hanche dominait avec une contribution de la stratégie de cheville de plus de 20 %. En patins, en direction ML, aucun changement significatif de la performance n’a été observé. Toutefois en AP, nous avons observé une augmentation significative de la vélocité du CP, yeux ouverts et yeux fermés ainsi qu’une augmentation significative de l’étendue, yeux ouverts seulement. Au niveau des stratégies, la stratégie de cheville domine en AP et la stratégie de hanche domine en ML avec une contribution plus modeste de la stratégie de cheville qui était inférieure à 12 %. Chez les adolescents-hockeyeurs souffrant de TMS, post-intervention, nos résultats indiquent une diminution significative de la douleur et une amélioration des capacités fonctionnelles ainsi que de l’attitude posturale. Pré intervention en direction ML, nous avons observé une contribution significativement plus élevée de la stratégie de cheville au contrôle du CPnet et un retour vers des valeurs normales post-intervention. L’impact de l’intervention thérapeutique sur la performance du contrôle postural s’est avéré non significatif en ML et en AP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: L'obésité chez les jeunes représente aujourd’hui un problème de santé publique à l’échelle mondiale. Afin d’identifier des cibles potentielles pour des stratégies populationnelles de prévention, les liens entre les caractéristiques du voisinage, l’obésité chez les jeunes et les habitudes de vie font de plus en plus l’objet d’études. Cependant, la recherche à ce jour comporte plusieurs incohérences. But: L’objectif général de cette thèse est d’étudier la contribution de différentes caractéristiques du voisinage relativement à l’obésité chez les jeunes et les habitudes de vie qui y sont associées. Les objectifs spécifiques consistent à: 1) Examiner les associations entre la présence de différents commerces d’alimentation dans les voisinages résidentiels et scolaires des enfants et leurs habitudes alimentaires; 2) Examiner comment l’exposition à certaines caractéristiques du voisinage résidentiel détermine l’obésité au niveau familial (chez le jeune, la mère et le père), ainsi que l’obésité individuelle pour chaque membre de la famille; 3) Identifier des combinaisons de facteurs de risque individuels, familiaux et du voisinage résidentiel qui prédisent le mieux l’obésité chez les jeunes, et déterminer si ces profils de facteurs de risque prédisent aussi un changement dans l’obésité après un suivi de deux ans. Méthodes: Les données proviennent de l’étude QUALITY, une cohorte québécoise de 630 jeunes, âgés de 8-10 ans au temps 1, avec une histoire d’obésité parentale. Les voisinages de 512 participants habitant la Région métropolitaine de Montréal ont été caractérisés à l’aide de : 1) données spatiales provenant du recensement et de bases de données administratives, calculées pour des zones tampons à partir du réseau routier et centrées sur le lieu de la résidence et de l’école; et 2) des observations menées par des évaluateurs dans le voisinage résidentiel. Les mesures du voisinage étudiées se rapportent aux caractéristiques de l’environnement bâti, social et alimentaire. L’obésité a été estimée aux temps 1 et 2 à l’aide de l’indice de masse corporelle (IMC) calculé à partir du poids et de la taille mesurés. Les habitudes alimentaires ont été mesurées au temps 1 à l'aide de trois rappels alimentaires. Les analyses effectuées comprennent, entres autres, des équations d'estimation généralisées, des régressions multiniveaux et des analyses prédictives basées sur des arbres de décision. Résultats: Les résultats démontrent la présence d’associations avec l’obésité chez les jeunes et les habitudes alimentaires pour certaines caractéristiques du voisinage. En particulier, la présence de dépanneurs et de restaurants-minutes dans le voisinage résidentiel et scolaire est associée avec de moins bonnes habitudes alimentaires. La présence accrue de trafic routier, ainsi qu’un faible niveau de prestige et d’urbanisation dans le voisinage résidentiel sont associés à l’obésité familiale. Enfin, les résultats montrent qu’habiter un voisinage obésogène, caractérisé par une défavorisation socioéconomique, la présence de moins de parcs et de plus de dépanneurs, prédit l'obésité chez les jeunes lorsque combiné à la présence de facteurs de risque individuels et familiaux. Conclusion: Cette thèse contribue aux écrits sur les voisinages et l’obésité chez les jeunes en considérant à la fois l'influence potentielle du voisinage résidentiel et scolaire ainsi que l’influence de l’environnement familial, en utilisant des méthodes objectives pour caractériser le voisinage et en utilisant des méthodes statistiques novatrices. Les résultats appuient en outre la notion que les efforts de prévention de l'obésité doivent cibler les multiples facteurs de risque de l'obésité chez les jeunes dans les environnements bâtis, sociaux et familiaux de ces jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La formation est une stratégie clé pour le développement des compétences. Les entreprises continuent à investir dans la formation et le développement, mais elles possèdent rarement des données pour évaluer les résultats de cet investissement. La plupart des entreprises utilisent le modèle Kirkpatrick/Phillips pour évaluer la formation en entreprise. Cependant, il ressort de la littérature que les entreprises ont des difficultés à utiliser ce modèle. Les principales barrières sont la difficulté d’isoler l’apprentissage comme un facteur qui a une incidence sur les résultats, l’absence d’un système d’évaluation utile avec le système de gestion de l’apprentissage (Learning Management System - LMS) et le manque de données standardisées pour pouvoir comparer différentes fonctions d’apprentissage. Dans cette thèse, nous proposons un modèle (Analyse, Modélisation, Monitoring et Optimisation - AM2O) de gestion de projets de formation en entreprise, basée sur la gestion des processus d’affaires (Business Process Management - BPM). Un tel scénario suppose que les activités de formation en entreprise doivent être considérées comme des processus d’affaires. Notre modèle est inspiré de cette méthode (BPM), à travers la définition et le suivi des indicateurs de performance pour gérer les projets de formation dans les organisations. Elle est basée sur l’analyse et la modélisation des besoins de formation pour assurer l’alignement entre les activités de formation et les objectifs d’affaires de l’entreprise. Elle permet le suivi des projets de formation ainsi que le calcul des avantages tangibles et intangibles de la formation (sans coût supplémentaire). En outre, elle permet la production d’une classification des projets de formation en fonction de critères relatifs à l’entreprise. Ainsi, avec assez de données, notre approche peut être utilisée pour optimiser le rendement de la formation par une série de simulations utilisant des algorithmes d’apprentissage machine : régression logistique, réseau de neurones, co-apprentissage. Enfin, nous avons conçu un système informatique, Enterprise TRaining programs Evaluation and Optimization System - ETREOSys, pour la gestion des programmes de formation en entreprise et l’aide à la décision. ETREOSys est une plateforme Web utilisant des services en nuage (cloud services) et les bases de données NoSQL. A travers AM2O et ETREOSys nous résolvons les principaux problèmes liés à la gestion et l’évaluation de la formation en entreprise à savoir : la difficulté d’isoler les effets de la formation dans les résultats de l’entreprise et le manque de systèmes informatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons quelques analyses théoriques récentes ainsi que des observations expérimentales de l’effet tunnel quantique macroscopique et des tran- sitions de phase classique-quantique dans le taux d’échappement des systèmes de spins élevés. Nous considérons les systèmes de spin biaxial et ferromagnétiques. Grâce à l’approche de l’intégral de chemin utilisant les états cohérents de spin exprimés dans le système de coordonnées, nous calculons l’interférence des phases quantiques et leur distribution énergétique. Nous présentons une exposition claire de l’effet tunnel dans les systèmes antiferromagnétiques en présence d’un couplage d’échange dimère et d’une anisotropie le long de l’axe de magnétisation aisé. Nous obtenons l’énergie et la fonc- tion d’onde de l’état fondamentale ainsi que le premier état excité pour les systèmes de spins entiers et demi-entiers impairs. Nos résultats sont confirmés par un calcul utilisant la théorie des perturbations à grand ordre et avec la méthode de l’intégral de chemin qui est indépendant du système de coordonnées. Nous présentons aussi une explica- tion claire de la méthode du potentiel effectif, qui nous laisse faire une application d’un système de spin quantique vers un problème de mécanique quantique d’une particule. Nous utilisons cette méthode pour analyser nos modèles, mais avec la contrainte d’un champ magnétique externe ajouté. La méthode nous permet de considérer les transitions classiques-quantique dans le taux d’échappement dans ces systèmes. Nous obtenons le diagramme de phases ainsi que les températures critiques du passage entre les deux régimes. Nous étendons notre analyse à une chaine de spins d’Heisenberg antiferro- magnétique avec une anisotropie le long d’un axe pour N sites, prenant des conditions frontière périodiques. Pour N paire, nous montrons que l’état fondamental est non- dégénéré et donné par la superposition des deux états de Néel. Pour N impair, l’état de Néel contient un soliton, et, car la position du soliton est indéterminée, l’état fondamen- tal est N fois dégénéré. Dans la limite perturbative pour l’interaction d’Heisenberg, les fluctuations quantiques lèvent la dégénérescence et les N états se réorganisent dans une bande. Nous montrons qu’à l’ordre 2s, où s est la valeur de chaque spin dans la théorie des perturbations dégénérées, la bande est formée. L’état fondamental est dégénéré pour s entier, mais deux fois dégénéré pour s un demi-entier impair, comme prévu par le théorème de Kramer

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le calcul de structures électroniques dans les solides. À l'aide de la théorie de la fonctionnelle de densité, puis de la théorie des perturbations à N-corps, on cherche à calculer la structure de bandes des matériaux de façon aussi précise et efficace que possible. Dans un premier temps, les développements théoriques ayant mené à la théorie de la fonctionnelle de densité (DFT), puis aux équations de Hedin sont présentés. On montre que l'approximation GW constitue une méthode pratique pour calculer la self-énergie, dont les résultats améliorent l'accord de la structure de bandes avec l'expérience par rapport aux calculs DFT. On analyse ensuite la performance des calculs GW dans différents oxydes transparents, soit le ZnO, le SnO2 et le SiO2. Une attention particulière est portée aux modèles de pôle de plasmon, qui permettent d'accélérer grandement les calculs GW en modélisant la matrice diélectrique inverse. Parmi les différents modèles de pôle de plasmon existants, celui de Godby et Needs s'avère être celui qui reproduit le plus fidèlement le calcul complet de la matrice diélectrique inverse dans les matériaux étudiés. La seconde partie de la thèse se concentre sur l'interaction entre les vibrations des atomes du réseau cristallin et les états électroniques. Il est d'abord montré comment le couplage électron-phonon affecte la structure de bandes à température finie et à température nulle, ce qu'on nomme la renormalisation du point zéro (ZPR). On applique ensuite la méthode GW au calcul du couplage électron-phonon dans le diamant. Le ZPR s'avère être fortement amplifié par rapport aux calculs DFT lorsque les corrections GW sont appliquées, améliorant l'accord avec les observations expérimentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exercice en immersion dans l'eau peut générer des réponses hémodynamiques et cardiorespiratoires différentes à celles de l’exercice sur terraine sec. Cependant, aucune étude n’a comparé ces réponses sur vélo aquatique (VA) à celles sur vélo sur terrain sec (VS) à une même puissance mécanique externe (Pext). À cet égard, le premier travail de cette thèse visait, d’abord, à trouver les équivalences de Pext lors du pédalage sur VA en immersion à la poitrine par rapport au VS au laboratoire, en considérant que cela restait non déterminé à ce jour. Une équation de mécanique des fluides fut utilisée pour calculer la force déployée pour le système de pédalage (pales, leviers, pédales) et des jambes à chaque tour de pédale. Ensuite, cette force totale a été multipliée par la vitesse de pédalage pour estimer la Pext sur VA. Ayant trouvé les équivalences de Pext sur VA et VS, nous nous sommes fixés comme objectif dans la deuxième étude de comparer les réponses hémodynamiques et cardiorespiratoires lors d'un exercice maximal progressif sur VS par rapport au VA à une même Pext. Les résultats ont montré que le VO2 (p<0.0001) et la différence artério-veineuse (C(a-v)O2) (p<0.0001) étaient diminués lors de l’exercice sur VA comparativement à celui sur VS. Parmi les variables hémodynamiques, le volume d’éjection systolique (VES) (p˂0.05) et le débit cardiaque (Qc) (p˂0.05) étaient plus élevés sur VA. En plus, on nota une diminution significative de la fréquence cardiaque (FC) (p˂0.05). Étant donné qu’à une même Pext les réponses physiologiques sont différentes sur VA par rapport à celles sur VS, nous avons effectué une troisième étude pour établir la relation entre les différentes expressions de l'intensité relative de l'exercice (% du VO2max,% de la FCmax,% du VO2 de réserve (% de VO2R) et % de la FC réserve (% FCR)). Les résultats ont démontré que la relation % FCR vs % VO2R était la plus corrélée (régression linéaire) et la plus proche de la ligne d’identité. Ces résultats pourraient aider à mieux prescrire et contrôler l’intensité de l'exercice sur VA pour des sujets sains. Finalement, une dernière étude comparant la réactivation parasympathique après un exercice maximal incrémental effectué sur VA et VS en immersion au niveau de la poitrine a montré que la réactivation parasympathique à court terme était plus prédominante sur VA (i,e. t, delta 10 à delta 60 et T30, p<0.05). Cela suggérait, qu’après un exercice maximal sur VA, la réactivation parasympathique à court terme était accélérée par rapport à celle après l'effort maximal sur VS chez de jeunes sujets sains. En conclusion, nous proposons une méthode de calcul de la puissance mécanique externe sur VA en fonction de la cadence de pédalage. Nous avons démontré que pendant l’exercice sur VA les réponses hémodynamiques et cardiorespiratoires sont différentes de celles sur VS à une même Pext et nous proposons des équations pour le calcul du VO2 dans l’eau ainsi qu’une méthode pour la prescription et le contrôle de l’exercice sur VA. Finalement, la réactivation parasympathique à court terme s’est trouvée accélérée après un effort maximal incrémental sur VA comparativement à celle sur VS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie de Crohn (MC) est une maladie chronique et récidivante du tractus gastro-intestinal. Dans la population pédiatrique, elle est très souvent accompagnée d'un retard de croissance (jusqu'à 88%). La MC se manifeste souvent autour de la puberté d’où l’importance du retard de croissance linéaire à ce stade crucial du développement de l’enfant. Une des questions essentielles est de savoir si le retard de croissance peut persister à l'âge adulte. La littérature est inconsistante sur ce point. En ce qui concerne les facteurs de risque potentiels, les corticostéroïdes (CS) qui sont la première ligne de traitement pour la majorité des patients, ont été largement impliqués. Bien qu'il existe des explications démontrant le mécanisme d’action des corticostéroïdes sur la croissance linéaire, les études cliniques impliquant l'utilisation CS soit à un retard de croissance temporaire ou permanent restent controverser et limiter. Nous avons examiné cette relation importante dans notre étude présente. Les principaux objectifs de l'étude sont les suivants: 1. D’évaluer la fréquence du retard de croissance chez le jeune atteint de la maladie de Crohn et qui a reçu des corticostéroïdes (CS) au cours de son traitement et 2. D’évaluer les facteurs de risque associés au retard de croissance temporaire ou permanent dans cette population. Méthodes : Afin d’atteindre nos objectifs, on a mené une étude de cohorte rétrospective. Cette cohorte comprend des patients qui ont été diagnostiqués de la MC (avant l’âge de 18 ans) à la clinique de gastroentérologie du Centre Hospitalier-Universitaire Sainte-Justine (CHUSJ) à Montréal. Ces patients ont tous reçus des CS en traitement initial(en excluant les rechutes). Les dossiers médicaux des patients ont été examinés de façon prospective afin de d’acquérir des informations sur : 1. La taille à chaque visite médicale; 2. La durée du traitement des CS; 3. L’administration de médication concomitante; 4. D’autres variables cliniques telles que l’âge au diagnostic, le sexe, la localisation et le comportement de la maladie. Pour ceux qui avaient atteints l’âge de 18 ans et qui ne fréquentaient plus la clinique, leur taille finale a été obtenue en les contactant par téléphone. Leurs parents ont aussi été contactés afin d’obtenir leur taille. On a converti nos résultats en scores de Z ou scores-Z ajustée pour l’âge et le sexe en utilisant la classification 2007 de l’Organisation Mondiale de la Santé(OMS). On a aussi calculé les tailles adultes cibles avec les données que nous avons récoltées. La raison de tout cela était de rendre nos résultats comparables aux études antérieures et renforcer ainsi la validité de nos trouvailles. Les enfants avec un score de Z<-1.64 (qui correspond au 5ème percentile) ont été considérés comme ayant un retard de croissance temporaire. Les scores-Z pour les tailles adultes finales ont été calculés en utilisant les mêmes normes de référence selon le sexe pour les personnes âgées de 17,9 ans. Un z-score <-1,64 a aussi été utilisé pour classer les individus avec un retard permanent. Ajouter à cela, ceux ayant une taille adulte finale <8,5cm de leur taille adulte cible (estimée à partir des hauteurs parentales) étaient considérés comme ayant un retard de croissance permanent. Des analyses de régression logistiques ont été faites pour examiner les facteurs associés à un retard de croissance temporaire et/ou permanent. Résultats : 221 patients ont été retenus. L’âge moyen de diagnostic était de 12.4 années et l’âge moyen de prise de CS était de 12.7 années. La répartition par sexe avait une légère prédominance masculine 54.3% contre 45.7% pour le sexe féminin. La majorité des patients étaient d’âge pubère (62.9%). On a surtout des patients avec une prédominance de maladie de type inflammatoire (89.1%) et localisé au niveau de l’iléo-colon (60.2%). Presque tous avaient pris une médication concomitante (88.7%) et n’avaient subi aucune chirurgie (95.9%). 19% des patients avaient un retard de croissance temporaire. L'analyse univariée a suggéré que le plus jeune âge au moment du diagnostic de la maladie et l'âge précoce à l'administration de stéroïdes étaient associés à un risque accru de retard de croissance temporaire. L’administration de CS à un jeune âge a été la seule variable (dans l’analyse multivariée) associée à un risque élevé de retard de croissance temporaire. En comparant à ceux ayant reçu des CS après l’âge de 14 ans (tertile 3), l’administration de CS à un âge précoce est fortement associé à un risque de retard de croissance (<11.6ans, OR: 6.9, 95% CI: 2.2-21.6, p-value: 0.001; 11.8ans-14ans, OR: 5.4, 95% CI: 1.7-17.1, p-value: 0.004). 8 (5.8%) sur 137 des sujets avaient une taille adulte finale <8,5cm de leur taille adulte cible. Dans l’analyse de régression linéaire multivariée, seul la variable de la taille adulte cible était associé à un changement de la taille adulte finale. Conclusion : Nos résultats suggèrent que la fréquence du retard de croissance permanent chez les enfants atteint de la MC est très faible. Un retard temporaire ou permanent de la croissance n’ont pas été associés à une augmentation de la quantité de CS administrée bien que l'administration de CS à un âge précoce soit associée à un retard de croissance temporaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.