999 resultados para [JEL:C10] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
La schizophrénie est un trouble mental qui touche environ un pour cent de la population et dont les symptômes et troubles associés affectent la capacité des individus à fonctionner dans la communauté. Dans la dernière décennie, des services spécialisés dans la détection et l’intervention précoce dès le premier épisode psychotique ont été implantés dans plusieurs pays. Or, ces services ont surtout ciblé, jusqu’ici, la réduction des symptômes et de la demande de soins. Les difficultés fonctionnelles des jeunes adultes schizophrènes justifient que les services qui leur sont destinés misent également sur la réadaptation et l’amélioration du fonctionnement dans la communauté. Les besoins, priorités et préférences de cette population, ainsi que l’impact des particularités développementales du jeune âge adulte sur leur fonctionnement, sont méconnus. Cette étude propose de documenter le fonctionnement dans la communauté des jeunes adultes schizophrènes au stade du premier épisode psychotique et de le comparer à celui de leurs pairs sans psychopathologie. L’utilisation d’un modèle théorique de réadaptation, le modèle de Compétence, permet de conceptualiser le fonctionnement sous l’angle de la relation personne-environnement. Ce projet s’inscrit dans une approche de recherche synthétique ; le devis préconisé est une étude de cas multiples avec l’utilisation de méthodes mixtes (qualitatives et quantitatives), selon un modèle concurrent de triangulation (Creswell & Plano Clark, 2007). Les résultats mettent en lumière des différences entre les deux groupes dans les domaines des relations sociales et conjugales, du cheminement académique et de l’indépendance résidentielle et financière. Les données qualitatives, analysées selon le modèle de la théorisation ancrée (Glaser & Strauss, 1967), permettent de comprendre les processus sociaux impliqués dans l’accomplissement des tâches développementales au jeune âge adulte, ainsi que les conditions personnelles et systémiques sous-jacentes. Les résultats soulignent l’importance d’adapter les services résidentiels aux particularités développementales, de favoriser le soutien aux études et d’inclure les amis et les pairs dans la réadaptation des personnes touchées. Cette thèse permet à la fois d’identifier les besoins et priorités de cette population, de donner une voix aux jeunes adultes schizophrènes dans l’élaboration des services qui leur sont destinés et d’examiner les enjeux méthodologiques reliés à l’utilisation d’un devis mixte en recherche clinique.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.
Resumo:
Introduction : Après un traitement orthodontique, la rétention (ou contention) est essentielle pour éviter les récidives vers la malocclusion initiale. Le fil de rétention lingual est un appareil fixe, relativement facile à installer et bien accepté par les patients pour maintenir la position finale des dents antérieures inférieures. Étant de plus en plus utilisé, il devient important de s’assurer de sa fiabilité pour la stabilité de l’alignement dentaire. Objectif : Le but de cette étude clinique randomisée prospective est de déterminer le taux de survie d’un fil lingual mandibulaire de rétention en comparant les méthodes de collage direct et de collage indirect à court et moyen termes. Méthodologie : L’échantillon est constitué de 117 patients consécutifs aléatoirement distribués dans 2 groupes : collage direct (n=58) et collage indirect (n=59). Les fils torsadés de diamètre 0,0175’’ sont préformés par un technicien de laboratoire soit selon la méthode de collage direct, soit selon la méthode de collage indirect. Une matrice de transfert en silicone assure le positionnement précis du fil lingual en bouche. Assure® et Filtek™ Flow ont été utilisés pour le collage direct. Filtek™ Flow, Assure®, and Sondhi™ ont été utilisés pour le collage indirect. Les fils de rétention ont été évalués pour le décollement, l’infiltration, la distorsion et le bris à 2 mois (T1) et 6 mois (T2). Résultats : À T1, le taux de survie du fil de rétention est de 90,2% pour le groupe de collage direct, comparativement à 79,5% pour le groupe de collage indirect (p=0,232). À T2, le fil est resté intact pour 74,1% des participants dans le groupe de collage direct et pour 70,0% des participants dans le groupe de collage indirect (p=0,481). Les différences ne sont pas statistiquement significatives entre les 2 groupes. La fréquence du décollement est plus haute que les autres problèmes enregistrés à T1 (p<0,022), représentant 85,7% des échecs. À T2, le décollement est plus fréquent que la distorsion ou le bris (p<0,04), mais pas statistiquement plus fréquent que l’infiltration (p=0,109). Il représente alors 86,4% des échecs. Conclusion : Le décollement est la principale cause d’échec d’un fil de rétention lingual. Il n’y a pas de différence statistiquement significative du taux de survie d’un fil lingual mandibulaire de rétention entre les techniques de collage direct et de collage indirect à court et moyen termes.
Resumo:
Une nouvelle approche pour la synthèse de l’aliskiren, un puissant inhibiteur de la rénine pour le traitement de l’hypertension chez l’homme, a été développée. De cette approche, des étapes clés tels qu’une allylation avec un des catalyseurs de MacMillan, une cyclisation par métathèse (RCM) pour la préparation d’une lactone à neuf membres et une séquence de réactions d’aziridination diastéréosélective/réarrangement de cycle par une catalyse acide donnant un produit aminohydroxylé ont permis de compléter la synthèse de l’aliskiren en 11 étapes. Durant l’élaboration de la séquence de réactions pour la préparation de l’aliksiren, il a été noté que la lactone à neuf membres avait une facilité à se réarranger via des intermédiaires quinonoïdaux et les produits issus de cette tendance ont été analysés. De plus, une étude sur la réaction de RCM, donnant la lactone à neuf membres, a montré une dépendance envers la nature diastéréomérique du substrat de départ. Une méthodologie d’alpha-allylation asymétrique de cétones catalysée au palladium, tirant avantage d’un ligand chiral PHOX, a été explorée et utilisée en vue de la synthèse de l’aliskiren. De cette méthode, une étude pour la synthèse de produits alpha-allylcétones acycliques a été démontrée et un effet d’additif sur la sélectivité et la vitesse de réaction a été découvert. De plus, la production d’un intermédiaire avancé d’un produit d’intérêts a été accomplie et la nature de la contribution de l’additif a été investiguée. Les produits obtenus depuis la méthodologie d’allylation catalysée au palladium et la formation d’intermédiaire cationique des certains dérivés de la synthèse de l’aliskiren ont inspirés une nouvelle approche faisant appel à des techniques d’alkylation en catalyse acide pour la formation de produits diaryliques. Il a été trouvé que le catalyseur de chlorure d’or(III) et de triflate de bismuth(III) étaient particulièrement efficaces, démontrant une différence de cinétique pour la réactivité d’un mélange diastéréoisomériques d’alcools alpha-substitués de départ.
Resumo:
Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.
Resumo:
L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.
Resumo:
Il est possible de modéliser la trame temporelle d’une histoire à l’aide de courbes paramétrées et la juxtaposition de ces différentes courbes permet la construction de graphes. Ce modèle peut servir à la fois à comprendre certaines histoires et à explorer de nouvelles narrations possibles basées sur ces graphes. Dans ce mémoire, nous présentons ce modèle de pair avec les notions mathématiques sur lesquelles il se base. Finalement, nous explorons des différentes narrations possibles qui apparaissent lorsque nous considérons ces graphes sur différentes surfaces.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation.