966 resultados para [JEL:C52] Mathématiques et méthodes quantitatives - Modélisation économétrique - Évaluation de modèles et tests


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Un modèle pharmacocinétique à base physiologique (PBPK) d’exposition par inhalation à l’éthanol a antérieurement été développé en se basant sur des données provenant d’une étude chez des volontaires exposés par inhalation à plus de 5000 ppm. Cependant, une incertitude persiste sur la capacité du modèle PBPK à prédire les niveaux d’éthanolémie pour des expositions à de faibles concentrations. Ces niveaux sont fréquemment rencontrés par une large partie de la population et des travailleurs suite à l’utilisation de produits tels que les vernis et les solutions hydroalcooliques (SHA). Il est ainsi nécessaire de vérifier la validité du modèle existant et de déterminer lexposition interne à l’éthanol dans de telles conditions. Les objectifs du mémoire sont donc 1) de documenter les niveaux d’éthanolémie résultant de lexposition par inhalation à de faibles concentrations d’éthanol (i.e., ≤ 1000 ppm) et de valider/raffiner le modèle PBPK existant pour ces concentrations ; et 2) de déterminer les concentrations d’éthanol atmosphérique provenant d’utilisation de SHA et de vernis et de prédire les niveaux d’éthanolémiecoulant de leur utilisation. Les données toxicocinétiques récoles chez des volontaires nous suggèrent qu’il est insuffisant de limiter au foie la clairance métabolique de l’éthanol lors d’exposition à de faibles niveaux d’éthanol, contrairement aux expositions à de plus forts niveaux. De plus, il a clairement été démontré qu’un effort physique léger (50 W) influençait à la hausse (2-3 fois) l’éthanolémie des volontaires exposés à 750 ppm. L’ajout au modèle PBPK d’une clairance métabolique de haute affinité et de faible capacité assoce aux tissus richement perfusés a permis de simuler plus adéquatement la cinétique de l’éthanolémie pour des expositions à des concentrations inférieures à 1000 ppm. Des mesures de concentrations d’éthanol dans l’air inhalé générées lors d’utilisation de SHA et de vernis ont permis de simuler des expositions lors de l’utilisation de ces produits. Pour l’utilisation de 1,5 g et 3 g de SHA dans un local peu ventilé, des concentrations sanguines maximales (Cmax) de 0.383 et 0.366 mg.L-1 ont été respectivement simulées. Dans un local bien ventilé, les Cmax simulées étaient de 0.264 et 0.414 mg.L-1. Selon les simulations, une application de vernis résulterait en une Cmax respectivement de 0.719 mg.L-1 et de 0.729 mg.L-1, chez les hommes et femmes. Les Cmax sanguines d’éthanol estimées suites aux différentes simulations sont inférieures à la concentration toxique pour les humains (100 mg.L-1). Ainsi, de telles expositions ne semblent pas être un danger pour la santé. Les résultats de cette étude ont permis de mieux décrire et comprendre les processus d’élimination de l’éthanol à faibles doses et permettront de raffiner l’évaluation du risque associé à l’inhalation chronique de faibles niveaux d’éthanol pour la population, particulièrement chez les travailleurs.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent cele. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième articlecrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la températurecessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problèmecurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer lefficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour leffet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. LEDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Llastographie ultrasonore est une technique d'imagerie émergente destinée à cartographier les paramètres mécaniques des tissus biologiques, permettant ainsi d’obtenir des informations diagnostiques additionnelles pertinentes. La méthode peut ainsi être perçue comme une extension quantitative et objective de l'examen palpatoire. Diverses techniques élastographiques ont ainsi été proposées pour l'étude d'organes tels que le foie, le sein et la prostate et. L'ensemble des méthodes proposées ont en commun une succession de trois étapes bien définies: l'excitation mécanique (statique ou dynamique) de l'organe, la mesure des déplacements induits (réponse au stimulus), puis enfin, l'étape dite d'inversion, qui permet la quantification des paramètres mécaniques, via un modèle théorique préétabli. Parallèlement à la diversification des champs d'applications accessibles à llastographie, de nombreux efforts sont faits afin d'améliorer la précision ainsi que la robustesse des méthodes dites d'inversion. Cette thèse regroupe un ensemble de travaux théoriques et expérimentaux destinés à la validation de nouvelles méthodes d'inversion dédiées à l'étude de milieux mécaniquement inhomogènes. Ainsi, dans le contexte du diagnostic du cancer du sein, une tumeur peut être perçue comme une hétérogénéité mécanique confinée, ou inclusion, affectant la propagation d'ondes de cisaillement (stimulus dynamique). Le premier objectif de cette thèse consiste à formuler un modèle théorique capable de prédire l'interaction des ondes de cisaillement induites avec une tumeur, dont la géométrie est modélisée par une ellipse. Après validation du modèle proposé, un problème inverse est formulé permettant la quantification des paramètres visclastiques de l'inclusion elliptique. Dans la continuité de cet objectif, l'approche a été étendue au cas d'une hétérogénéité mécanique tridimensionnelle et sphérique avec, comme objectifs additionnels, l'applicabilité aux mesures ultrasonores par force de radiation, mais aussi à l'estimation du comportement rhéologique de l'inclusion (i.e., la variation des paramètres mécaniques avec la fréquence d'excitation). Enfin, dans le cadre de l'étude des propriétés mécaniques du sang lors de la coagulation, une approche spécifiquecoulant de précédents travaux réalisés au sein de notre laboratoire est proposée. Celle-ci consiste à estimer la visclasticité du caillot sanguin via le phénomène de résonancecanique, ici induit par force de radiation ultrasonore. La méthode, dénommée ARFIRE (''Acoustic Radiation Force Induced Resonance Elastography'') est appliquée à l'étude de la coagulation de sang humain complet chez des sujets sains et sa reproductibilité est évale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. Lespace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur lespace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principalle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent lespace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il lexpérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Contexte et problématique. Selon l’Association Canadienne d’Équitation Thérapeutique (ACET), l’équitation thérapeutique comprend toutes les activités équestres s’adressant à une clientèle présentant des déficiences. L’équitation thérapeutique compte plusieurs approches, notamment l’hippothérapie, une stratégie de réadaptation offerte par des ergothérapeutes, physiothérapeutes et orthophonistes. L’hippothérapie se base sur le mouvement tridimensionnel induit par le cheval lequel favorise l’amélioration de diverses fonctions neuromotrices notamment le tonus du tronc et de la tête, la posture debout et les ajustements posturaux. Bien que les approches d’équitation thérapeutique prennent de l’ampleur au Québec, il n’y a toujours aucune règlementation officielle. Il existe donc une confusion importante entre les différentes approches d’équitation thérapeutique et l’hippothérapie actuellement reconnue comme la seule approche médicale de réadaptation utilisant le cheval. Les clientèles présentant de lourdes déficiences neuro-musculo-squelettiques se voient donc régulièrement référées dans des centres qui n’offrent pas d’hippothérapie et sont confrontées à des risques importants. Objectifs. Modéliser les interventions d’équitation thérapeutique afin de rendre explicites les composantes de ces interventions et les liens qui les unissent ainsi qu’analyser la plausibilité des interventions à atteindre les résultats escomptés. Méthodologie. Les interventions d’équitation thérapeutique ont été modélisées par des entrevues réalisées auprès des principales personnes offrant des services d’équitation thérapeutique au Québec. Une revue de la littérature a été conduite sur les principes de réadaptation qui sous-tendent les interventions. Lensemble des données recueillies ont été analysé selon une procédure habituelle d’analyse de contenu qualitatif. Résultats. Les modèles créés permettent d’améliorer les connaissances des pratiques d’équitation thérapeutiques et d’hippothérapie au Québec. Conséquences. Les modèles permettent d’entamer une réflexion sur la règlementation de ces pratiques au Québec et au Canada ainsi que de soutenir les processus de références dans les différents centres québécois.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudrecessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consaces à llaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Demonstration videos can be found on fr.linkedin.com/in/doriangomez/

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction : Après un traitement orthodontique, la rétention (ou contention) est essentielle pour éviter les récidives vers la malocclusion initiale. Le fil de rétention lingual est un appareil fixe, relativement facile à installer et bien accepté par les patients pour maintenir la position finale des dents antérieures inférieures. Étant de plus en plus utilisé, il devient important de s’assurer de sa fiabilité pour la stabilité de l’alignement dentaire. Objectif : Le but de cette étude clinique randomisée prospective est de déterminer le taux de survie d’un fil lingual mandibulaire de rétention en comparant les méthodes de collage direct et de collage indirect à court et moyen termes. Méthodologie : L’échantillon est constitué de 117 patients consécutifs aléatoirement distribués dans 2 groupes : collage direct (n=58) et collage indirect (n=59). Les fils torsadés de diamètre 0,0175’’ sont préformés par un technicien de laboratoire soit selon la méthode de collage direct, soit selon la méthode de collage indirect. Une matrice de transfert en silicone assure le positionnement précis du fil lingual en bouche. Assure® et Filtek™ Flow ont été utilisés pour le collage direct. Filtek™ Flow, Assure®, and Sondhi™ ont été utilisés pour le collage indirect. Les fils de rétention ont été évalués pour lecollement, l’infiltration, la distorsion et le bris à 2 mois (T1) et 6 mois (T2). Résultats : À T1, le taux de survie du fil de rétention est de 90,2% pour le groupe de collage direct, comparativement à 79,5% pour le groupe de collage indirect (p=0,232). À T2, le fil est resté intact pour 74,1% des participants dans le groupe de collage direct et pour 70,0% des participants dans le groupe de collage indirect (p=0,481). Les différences ne sont pas statistiquement significatives entre les 2 groupes. La fréquence du décollement est plus haute que les autres problèmes enregistrés à T1 (p<0,022), représentant 85,7% des échecs. À T2, lecollement est plus fréquent que la distorsion ou le bris (p<0,04), mais pas statistiquement plus fréquent que l’infiltration (p=0,109). Il représente alors 86,4% des échecs. Conclusion : Lecollement est la principale cause d’échec d’un fil de rétention lingual. Il n’y a pas de différence statistiquement significative du taux de survie d’un fil lingual mandibulaire de rétention entre les techniques de collage direct et de collage indirect à court et moyen termes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Une nouvelle approche pour la synthèse de l’aliskiren, un puissant inhibiteur de la rénine pour le traitement de l’hypertension chez l’homme, a été développée. De cette approche, des étapes clés tels qu’une allylation avec un des catalyseurs de MacMillan, une cyclisation par métathèse (RCM) pour la préparation d’une lactone à neuf membres et une séquence de réactions d’aziridination diastéréosélective/réarrangement de cycle par une catalyse acide donnant un produit aminohydroxylé ont permis de compléter la synthèse de l’aliskiren en 11 étapes. Durant l’élaboration de la séquence de réactions pour la préparation de l’aliksiren, il a été noté que la lactone à neuf membres avait une facilité à se réarranger via des intermédiaires quinonoïdaux et les produits issus de cette tendance ont été analysés. De plus, une étude sur la réaction de RCM, donnant la lactone à neuf membres, a montré une dépendance envers la nature diastéréomérique du substrat de départ. Une méthodologie d’alpha-allylation asymétrique de cétones catalysée au palladium, tirant avantage d’un ligand chiral PHOX, a été explorée et utilisée en vue de la synthèse de l’aliskiren. De cette méthode, une étude pour la synthèse de produits alpha-allylcétones acycliques a été démontrée et un effet d’additif sur la sélectivité et la vitesse de réaction a été découvert. De plus, la production d’un intermédiaire avancé d’un produit d’intérêts a été accomplie et la nature de la contribution de l’additif a été investiguée. Les produits obtenus depuis la méthodologie d’allylation catalysée au palladium et la formation d’intermédiaire cationique des certains dérivés de la synthèse de l’aliskiren ont inspirés une nouvelle approche faisant appel à des techniques d’alkylation en catalyse acide pour la formation de produits diaryliques. Il a été trouvé que le catalyseur de chlorure d’or(III) et de triflate de bismuth(III) étaient particulièrement efficaces, démontrant une différence de cinétique pour la réactivité d’un mélange diastéréoisomériques d’alcools alpha-substitués de départ.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité lchantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque lecanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale decanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant assoce à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit lemploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèlecrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

De nombreux travailleurs sont exposés aux hydrocarbures aromatiques polycycliques (HAP). Le benzo(a)pyrène (BaP) fait partie de ce groupe de polluants. Cette substance a été classée cancérogène reconnu chez l’humain. Pour évaluer l'exposition aux HAP cancérogènes, plusieurs chercheurs ont proposé d’utiliser la mesure du 3-hydroxybenzo(a)pyrène (3-OHBaP) dans l’urine des travailleurs exposés. Dans le cadre du présent projet, deux approches de modélisation ont été développées et appliquées pour permettre une meilleure compréhension de la toxicocinétique du BaP et son biomarqueur d’intérêt actuel, le 3-OHBaP, et pour aider à interpréter les résultats de surveillance biologique. Un modèle toxicocinétique à plusieurs compartiments a été développé sur la base des données préalablement obtenues sur le rat par notre groupe. Selon le modèle, le BaP injecté par voie intraveineuse est rapidement distribué du sang vers les tissus (t½ ≈ 4 h), avec une affinité particulière pour les poumons et les composantes lipidiques des tissus. Le BaP est ensuite distribué vers la peau et le foie. Au foie, le BaP est promptement métabolisé et le 3-OHBaP est formé avec une demi-vie de ≈ 3 h. Le métabolisme pulmonaire du BaP a également été pris en compte, mais sa contribution à la cinétique globale du BaP a été jugée négligeable. Une fois formé, le 3-OHBaP est distribué vers les différents organes presque aussi rapidement que la molécule mère (t½ ≈ 2 h). Le profil temporel du 3-OHBaP dans le rein montre une accumulation transitoire en raison de la différence observée entre le taux d’entrée (t½ = 28 min) et le taux de sortie (t½ = 4,5 h). La clairance totale de 3-OHBaP du corps est principalement gouvernée par le taux de transfert de la bile vers le tractus gastro-intestinal (t½ ≈ 4 h). Le modèle toxicocinétique à plusieurs compartiments a réussi à simuler un ensemble indépendant de profils urinaires publiés sur le 3-OHBaP. Ce modèle toxicocinétique à compartiments s'est avéré utile pour la determination des facteurs biologiques déterminants de la cinétique du BaP et du 3-OHBaP. Par la suite, un modèle pharmacocinétique à base physiologique (PCBP) reproduisant le devenir du BaP et du 3-OHBaP chez le rat a été construit. Les organes (ou tissus) représentés comme des compartiments ont été choisis en fonction de données expérimentales obtenues in vivo chez le rat. Les coefficients de partition, les coefficients de perméabilité, les taux de métabolisation, les paramètres d'excrétion, les fractions absorbées et les taux d'absorption pour différentes voies d’exposition ont été obtenus directement à partir des profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP. Les valeurs de ces derniers paramètres ont été calculées par des procédures Monte-Carlo. Des analyses de sensibilité ont ensuite été réalisées pour s’assurer de la stabilité du modèle et pour établir les paramètres les plus sensibles de la cinétique globale. Cette modélisation a permis d’identifier les facteurs déterminants de la cinétique: 1) la sensibilité élee des paramètres de la métabolisation hépatique du BaP et du 3-OHBaP ainsi que du taux d'élimination; 2) la forte distribution du BaP dans les poumons par rapport à d'autres tissus; 3) la distribution considérable du BaP dans les tissus adipeux et le foie; 4) la forte distribution du 3-OHBaP dans les reins; 5) le transfert limité du BaP par la diffusion tissulaire dans les poumons; 6) le transfert limité du 3-OHBaP par la diffusion tissulaire dans les poumons, les tissus adipeux et les reins; 7) la recirculation entéro-hépatique significative du 3-OHBaP. Suite à des analyses de qualité des ajustements des équations du modèle aux données observées, les probabilités que les simulations reproduisent les données expérimentales par pur hasard se sont avérées toujours inférieures à 10% pour les quatre voies d’exposition : intraveineuse, orale, cutanée et respiratoire. Nous avons extrapolé les modèles cinétiques du rat à l’humain afin de se doter d’un outil permettant de reconstituer les doses absorbées chez des travailleurs exposés dans diverses industries à partir de mesures de l'évolution temporelle du 3-OHBaP dans leur urine. Les résultats de ces modélisations ont ensuite été comparés à ceux de simulations obtenues avec un modèle toxicocinétique à compartiment unique pour vérifier l’utilité comparative d’un modèle simple et complexe. Les deux types de modèle ont ainsi été construits à partir de profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP sur des rats exposés. Ces données ont été obtenues in vivo par voie intraveineuse, cutanée, respiratoire et orale. Ensuite, les modèles ont été extrapolés à l’humain en tenant compte des déterminants biologiques essentiels des différences cinétiques entre le rat et l’humain. Les résultats ont montré que l'inhalation n'était pas la principale voie d'exposition pour plusieurs travailleurs étudiés. Les valeurs de concentrations de BaP dans l’air utilisées afin de simuler les profils d’excrétion urinaire chez les travailleurs étaient différentes des valeurs de concentrations de BaP mesurées dans l’air. Une exposition au BaP par voie cutanée semblait mieux prédire les profils temporels observés. Finalement, les deux types de modélisation se sont avérés utiles pour reproduire et pour interpréter les données disponibles chez des travailleurs.