986 resultados para Méthodes épidémiologiques
Resumo:
La mortalité aux jeunes âges devenant de plus en plus faible, l’augmentation de l’espérance de vie est de plus en plus dépendante des progrès en mortalité aux âges avancés. L’espérance de vie à 65 ans et à 85 ans n’a cependant pas connu un rythme de progression continu depuis les trois dernières décennies. Ces changements dans l’évolution de l’espérance de vie proviennent de changements dans les tendances de certaines causes de décès et de leurs interactions. Ce mémoire analyse la contribution des causes de décès aux changements qu’a connus l’espérance de vie, mais aussi l’évolution spécifique des taux de mortalité liés aux principales causes de décès au Canada entre 1979 et 2007. Finalement, une analyse de l’implication de ces changements dans un contexte de transition épidémiologique sera réalisée, par un questionnement sur le fait que l’on assiste ou non au passage de certaines pathologies dominantes à d’autres. La réponse à ce questionnement se trouve dans l’étude de l’évolution par âge et dans le temps des causes de décès. Les résultats montrent que les progrès en espérance de vie à 65 ans et à 85 ans sont encore majoritairement dus à la diminution de la mortalité par maladies cardiovasculaires. Toutefois, ces dernières causes de décès ne sont pas les seules à contribuer aux progrès en espérance de vie, puisque les taux de mortalité dus aux dix principales causes de décès au Canada ont connu une diminution, bien qu’elles n’aient pas toutes évolué de la même manière depuis 1979. On ne semble ainsi pas passer d’un type de pathologies dominantes à un autre, mais à une diminution générale de la mortalité par maladies chroniques et à une diversification plus importante des causes de décès à des âges de plus en plus avancés, notamment par la diminution des «grandes» causes de décès.
Resumo:
Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.
Resumo:
Objectifs : Cette thèse porte sur l’association entre les caractéristiques socioenvironnementales des voisinages (milieux locaux) et la prévalence des limitations d’activités (ou handicap) dans la population québécoise. Elle a trois objectifs principaux : (1) clarifier les enjeux conceptuels et méthodologiques relatifs à l’étude des déterminants socioenvironnementaux des limitations d’activités; (2) décrire les contributions respectives de la composition socioéconomique des voisinages et de facteurs contextuels à la variabilité locale de la prévalence des limitations d’activités; (3) évaluer la présence d’interactions entre la santé fonctionnelle des personnes (incapacité) et des caractéristiques des voisinages en lien avec la prévalence des limitations d’activités. Méthodes : Une analyse de la littérature scientifique a été effectuée en lien avec le premier objectif de la thèse. En lien avec le deuxième objectif, des données pour le Québec du recensement canadien de 2001 (échantillon de 20% de la population) ont été utilisées pour estimer l’association entre la prévalence des limitations d’activités et des caractéristiques des voisinages : classification urbain-rural, composition socioéconomique (défavorisation matérielle et sociale) et facteurs contextuels (qualité des habitations, stabilité résidentielle et utilisation des transports actifs et collectifs). En lien avec le troisième objectif, des données pour la population urbaine du Québec issues de l’Enquête sur la santé dans les collectivités canadiennes (2003, 2005 et 2007/2008) ont permis de tester la présence d’interaction entre la santé fonctionnelle des personnes et des caractéristiques des voisinages (défavorisation matérielle et sociale, qualité des habitations, stabilité résidentielle et densité des services). Pour les analyses associées aux deux derniers objectifs, l’analyse des corrélats de la prévalence des limitations d’activités a été effectuée à l’aide de régressions logistiques multiniveaux. Résultats : Différents éléments conceptuels et opérationnels limitent la possibilité de faire une synthèse des analyses épidémiologiques portant sur les influences socioenvironnementales sur les limitations d’activités. Les résultats des analyses empiriques suggèrent que : (1) la variation géographique de la prévalence des limitations d’activités s’explique en grande partie par la composition socioéconomique des voisinages; (2) des facteurs contextuels sont associés à cette variation géographique; (3) les mesures relatives d’inégalités sous-estiment les disparités contextuelles dans la distribution des nombres absolus de personnes ayant une limitation d’activités; et (4) l’association entre la prévalence des limitations d’activités et la défavorisation sociale pourrait varier selon la santé fonctionnelle des personnes. Conclusions : Différentes caractéristiques socioenvironnementales sont potentiellement associées aux variations géographiques des limitations d’activités au Québec. Le développement d’indicateurs socioenvironnementaux favoriserait une connaissance plus précise de l’influence de ces caractéristiques socioenvironnementales sur les limitations d’activités et des mécanismes par lesquels s’exerce cette influence. L’établissement d’un système national de surveillance des aménagements territoriaux est proposé afin de soutenir la recherche et la prise de décision. Des indicateurs locaux d’accessibilité aux transports, aux espaces publics ainsi qu’aux services de proximité devraient être priorisés. Ces aspects de l’aménagement du territoire sont susceptibles de rejoindre plusieurs enjeux de santé publique et ils ont comme autre avantage d’être inclus dans différentes orientations québécoises ciblant le vieillissement en santé et la réduction des limitations d’activités.
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
Les modèles animaux d’arthrose sont utilisés sur le rat depuis des décennies pour évaluer l’efficacité analgésique de nombreux composés. Cependant, la méthodologie utilisée, en particulier les protocoles d’évaluation de la douleur, est très différente d’une étude à une autre, rendant difficile la comparaison entre chaque projet. Afin d'améliorer le transfert des résultats précliniques vers la recherche clinique, ce projet propose d'établir un protocole d'évaluation de la douleur fiable et pertinent, et de le valider à l’aide du modèle d’arthrose expérimental le plus populaire, soit l’injection intra-articulaire de mono-iodoacétate de sodium (MIA). La répétabilité et la fiabilité inter-évaluateur de diverses méthodes d’évaluation de la douleur ont été évaluées, et le protocole d'acclimatation le plus fiable a été déterminé. Ensuite, les méthodes les plus intéressantes ont été testées pour leur sensibilité à détecter les altérations douloureuses induites par l’injection de MIA, ainsi que leur réponse au traitement analgésique, soit une injection intra-articulaire de lidocaïne. Une période d'acclimatation adéquate associée à un protocole d'évaluation combinant des mesures réflexes, des comportements spontanés ainsi que des tests opérants ont témoigné avec succès des changements douloureux liés à l'injection de MIA. Le test opérant fut la méthode la plus sensible pour détecter l'effet analgésique de la lidocaïne. Cette étude a permis d’établir le protocole d’acclimatation et les méthodes de l’évaluation de la douleur les plus fiables et sensibles. Aussi, il a démontré la pertinence du test opérant pour détecter la composante affective de la douleur chez les rongeurs.
Resumo:
Introduction: Le cancer colorectal (CCR) demeure un véritable fardeau de santé publique au Canada. Malgré les énormes avancés scientifiques, l’étiologie du CCR n’est pas encore clairement définie. La prévention du CCR nécessite l’identification de nouveaux facteurs de risque. Durant ces dernières années, des études épidémiologiques ont rapporté l’association entre la santé buccodentaire et le cancer colorectal. Cependant, aucune étude n’a été conçue spécifiquement pour vérifier cette association. Objectifs : L’objectif principal de l’étude était de tester la faisabilité d’une grande étude épidémiologique ultérieure, conçue pour vérifier l’association entre la santé buccodentaire compromise et le risque de CCR. Les objectifs secondaires étaient de standardiser les procédures de l’étude, d’évaluer le taux de participation et le succès des approches proposées pour le recrutement, d’évaluer la faisabilité et la validité des méthodes de la collecte des données sur la santé buccodentaire et de produire des données préliminaires concernant l’association entre la santé buccodentaire compromise et le risque de CCR. Méthodologie: Il s’agit d’une étude de faisabilité, de devis cas-témoins à base populationnelle. Les participants dans le groupe de cas (n=30) ont été recrutés dans deux hôpitaux de Montréal. Les témoins (n=39) ont été recrutés dans la population générale de Montréal. Les données sur la santé buccodentaire ont été collectées aussi bien par un questionnaire sur la santé buccodentaire que par un examen clinique. Les données sur plusieurs facteurs de risque du CCR ont été collectées par des questionnaires validés. Résultats: L’étude de faisabilité a rencontré un taux de participation de 73% (30) chez les cas et de 32,5% (39) chez les témoins. Seulement 26% (7) des participants dans le groupe des cas et 79% (26) des participants dans le groupe de témoins ont complété l’examen dentaire. La santé buccodentaire compromise était associée au risque de CCR chez les participants plus âgés que 59 ans (OR=8,4 ; IC à 95% : 0,94 – 389,4; p=0,036). Les mesures de santé buccodentaire auto-rapportées par les participants par l’utilisation du questionnaire ont montré une bonne validité par rapport aux mesures de l’examen clinique. Conclusion: L’étude épidémiologique ultérieure est jugée faisable en apportant des modifications. Les résultats préliminaires plaident pour une association possible entre la santé buccodentaire compromise par la maladie parodontale et/ou l’édentement et le risque du CCR.
Resumo:
Introduction : Après un traitement orthodontique, la rétention (ou contention) est essentielle pour éviter les récidives vers la malocclusion initiale. Le fil de rétention lingual est un appareil fixe, relativement facile à installer et bien accepté par les patients pour maintenir la position finale des dents antérieures inférieures. Étant de plus en plus utilisé, il devient important de s’assurer de sa fiabilité pour la stabilité de l’alignement dentaire. Objectif : Le but de cette étude clinique randomisée prospective est de déterminer le taux de survie d’un fil lingual mandibulaire de rétention en comparant les méthodes de collage direct et de collage indirect à court et moyen termes. Méthodologie : L’échantillon est constitué de 117 patients consécutifs aléatoirement distribués dans 2 groupes : collage direct (n=58) et collage indirect (n=59). Les fils torsadés de diamètre 0,0175’’ sont préformés par un technicien de laboratoire soit selon la méthode de collage direct, soit selon la méthode de collage indirect. Une matrice de transfert en silicone assure le positionnement précis du fil lingual en bouche. Assure® et Filtek™ Flow ont été utilisés pour le collage direct. Filtek™ Flow, Assure®, and Sondhi™ ont été utilisés pour le collage indirect. Les fils de rétention ont été évalués pour le décollement, l’infiltration, la distorsion et le bris à 2 mois (T1) et 6 mois (T2). Résultats : À T1, le taux de survie du fil de rétention est de 90,2% pour le groupe de collage direct, comparativement à 79,5% pour le groupe de collage indirect (p=0,232). À T2, le fil est resté intact pour 74,1% des participants dans le groupe de collage direct et pour 70,0% des participants dans le groupe de collage indirect (p=0,481). Les différences ne sont pas statistiquement significatives entre les 2 groupes. La fréquence du décollement est plus haute que les autres problèmes enregistrés à T1 (p<0,022), représentant 85,7% des échecs. À T2, le décollement est plus fréquent que la distorsion ou le bris (p<0,04), mais pas statistiquement plus fréquent que l’infiltration (p=0,109). Il représente alors 86,4% des échecs. Conclusion : Le décollement est la principale cause d’échec d’un fil de rétention lingual. Il n’y a pas de différence statistiquement significative du taux de survie d’un fil lingual mandibulaire de rétention entre les techniques de collage direct et de collage indirect à court et moyen termes.
Resumo:
Une nouvelle approche pour la synthèse de l’aliskiren, un puissant inhibiteur de la rénine pour le traitement de l’hypertension chez l’homme, a été développée. De cette approche, des étapes clés tels qu’une allylation avec un des catalyseurs de MacMillan, une cyclisation par métathèse (RCM) pour la préparation d’une lactone à neuf membres et une séquence de réactions d’aziridination diastéréosélective/réarrangement de cycle par une catalyse acide donnant un produit aminohydroxylé ont permis de compléter la synthèse de l’aliskiren en 11 étapes. Durant l’élaboration de la séquence de réactions pour la préparation de l’aliksiren, il a été noté que la lactone à neuf membres avait une facilité à se réarranger via des intermédiaires quinonoïdaux et les produits issus de cette tendance ont été analysés. De plus, une étude sur la réaction de RCM, donnant la lactone à neuf membres, a montré une dépendance envers la nature diastéréomérique du substrat de départ. Une méthodologie d’alpha-allylation asymétrique de cétones catalysée au palladium, tirant avantage d’un ligand chiral PHOX, a été explorée et utilisée en vue de la synthèse de l’aliskiren. De cette méthode, une étude pour la synthèse de produits alpha-allylcétones acycliques a été démontrée et un effet d’additif sur la sélectivité et la vitesse de réaction a été découvert. De plus, la production d’un intermédiaire avancé d’un produit d’intérêts a été accomplie et la nature de la contribution de l’additif a été investiguée. Les produits obtenus depuis la méthodologie d’allylation catalysée au palladium et la formation d’intermédiaire cationique des certains dérivés de la synthèse de l’aliskiren ont inspirés une nouvelle approche faisant appel à des techniques d’alkylation en catalyse acide pour la formation de produits diaryliques. Il a été trouvé que le catalyseur de chlorure d’or(III) et de triflate de bismuth(III) étaient particulièrement efficaces, démontrant une différence de cinétique pour la réactivité d’un mélange diastéréoisomériques d’alcools alpha-substitués de départ.
Resumo:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
Resumo:
L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation.