93 resultados para Méthode généalogique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les manuels d’histoire ont souvent fait l’objet d’analyses concernant leur contenu et leur qualité, mais rarement leurs usages en classe. Cette thèse vise à décrire et analyser comment des enseignants d’histoire du Québec au secondaire utilisent le manuel et toute autre ressource didactique. Le problème consiste à mieux connaître ce qui se passe en classe depuis l’implantation de la réforme curriculaire, en 2001, et comment les conceptions des enseignants influencent leurs pratiques en lien avec l’exercice de la méthode historique. Ce travail décrit des pratiques enseignantes selon leur intervention éducative, les ressources didactiques utilisées et l’activité de l’élève en classe. Pour ce faire, la collecte de données est réalisée au travers d’un sondage en ligne (n= 81), d’observations en classe et d’entrevues (n=8) avec les participants. Les enseignants d’histoire utilisent souvent le manuel, mais leur intervention n’est pas structurée par son contenu ou ses exercices. Les cahiers d’exercices ou le récit de l’enseignant semblent structurer principalement leurs interventions. En fait, leurs conceptions sur l’enseignement et l’apprentissage en histoire déterminent le plus souvent l’usage du manuel et des autres ressources didactiques d’une manière traditionnelle ou d’une manière qui exerce authentiquement la méthode historique. Afin de décrire ces différents usages, la thèse propose une typologie qui distingue les différentes modalités mises en place afin d’utiliser les ressources didactiques et exercer la méthode historique. Trois principaux types sont énoncés : intensif, extensif et critique. Un quatrième type a été ajouté afin de mieux nuancer les différentes pratiques enseignantes rencontrées : extensif-méthodique. Ce dernier type s’explique par une pratique enseignante qui concilie les types extensif et critique selon les besoins de l’enseignant. La thèse souligne la persistance de pratiques transmissives et magistrocentrées qui limitent un exercice authentique de la méthode historique, alors que le curriculum vise un enseignement constructiviste et que plus de ressources sont disponibles pour les enseignants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Douze contaminants émergents (composés pharmaceutiques, pesticides et hormones) ont été quantifiés et extraits de l'eau de rivières et d’échantillons d'eaux usées municipales. La séparation des solides en suspension est effectuée par filtration des échantillons d'eau. L'effet de filtration sur les concentrations de contaminants dissous a été évaluée afin de minimiser les pertes de composés cibles. Les échantillons ont été lyophilisés et ont été extraits en deux cycles par ultrasons combinés avec une étape de nettoyage sur cartouche d’extraction de type C18. La quantification a été réalisée en utilisant la spectrométrie de masse. Les recouvrements de la méthode pour tous les composés ont varié de 68 à 112% dans toutes les matrices étudiées, sauf pour le sulfaméthoxazole et le diclofénac où des recouvrements plus modestes ont été obtenus (38 à 85%). Les limites de détection pour les 12 analytes dans les sédiments et particules en suspension (SPM) de la rivière variaient de 0,7 à 9,4 ng g-1 et de 21 à 92 ng g-1, pour les échantillons SPM de station d'épuration. Tous les contaminants émergents cibles ont été détectés à des concentrations variant de 3 à 5440 ng g-1 dans les matrices étudiées, les concentrations les plus élevées ont été observées dans les échantillons SPM de stations d'épuration. Une partie importante de certains de ces contaminants est clairement associée aux sédiments de rivière ou aux particules en suspension. L’optimisation des processus de traitement de l'eau et le devenir environnemental doit absolument tenir compte de la fraction de contaminants qui liée à des particules si on espère avoir un bilan de masse raisonnable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.