643 resultados para Modèles cache


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les maladies autoimmunes sont des affections chroniques, le plus souvent invalidantes, qui touchent plus de 5% de la population dans les pays développés. L’autoimmunité résulte de la rupture des mécanismes de tolérance du système immunitaire vis-à-vis des autoantigènes exprimés par les tissus de l’organisme, entraînant la destruction d’un ou de plusieurs organes-cibles par les lymphocytes T et/ou B. L’hépatite autoimmune et le diabète autoimmun se caractérisent par la destruction sélective des hépatocytes et des cellules beta pancréatiques, respectivement. De plus en plus d’arguments suggèrent une implication des lymphocytes T CD8+ dans le déclenchement, la progression et la régulation des réponses associées à plusieurs maladies autoimmunes. Dans ce projet, nous avons suivi l’évolution de clones de lymphocytes T CD8+ spécifiques à un antigène particulier dont le site d’expression différait. Pour ce faire, nous avons développé deux nouveaux modèles murins double transgéniques par croisement entre une lignée de souris exprimant un TCR transgénique spécifique à la nucléoprotéine (NP) du virus de la chorioméningite lymphocytaire (LCMV), et une souris exprimant cette NP-LCMV : 1) uniquement dans les hépatocytes (modèle d’hépatite autoimmune), ou 2) simultanément dans le thymus et le pancréas (modèle de diabète autoimmun). L’avidité fonctionnelle des lymphocytes T CD8+ spécifiques à la NP chez les souris TCR transgéniques était inversement proportionnelle au niveau d’expression du TCR. Le répertoire lymphocytaire dans le thymus, la rate, les ganglions et le sang périphérique a été caractérisé pour chacune des lignées de souris double transgéniques, de même que la capacité fonctionnelle et le phénotype (marqueurs d’activation/mémoire) des lymphocytes T CD8+ autoréactifs. Chacun des deux nouveaux modèles présentés dans cette étude ont montré que les lymphocytes T CD8+ spécifiques à la NP sont aptes à briser la tolérance centrale et périphérique et à provoquer une réaction d’autoimmunité spontanée. Dans le modèle d’hépatite autoimmune, où l’expression de l’autoantigène était restreinte au foie, la surexpression du TCR transgénique a entraîné une délétion thymique quasi-totale des lymphocytes T CD8+ spécifiques à la NP prévenant le développement d’une hépatite spontanée. alors qu’un niveau de TCR comparable à celui d’une souris de type sauvage a permis une sélection positive des lymphocytes autoréactifs qui se sont accumulés dans le foie où ils se sont activés pour provoquer une hépatite autoimmune spontanée. Dans le modèle de diabète autoimmun, où l’autoantigène était exprimé dans le pancréas et le thymus, les souris des deux lignées double transgéniques ont montré une délétion thymique partielle, peu importe le niveau d’expression du TCR. Seuls les mâles adultes développaient un diabète spontané et une partie de leurs lymphocytes T CD8+ exprimaient une combinaison particulière de marqueurs d’activation/mémoire (CD44, CD122, PD-1). Cette population lymphocytaire était absente chez les souris femelles et les mâles sains. L’étude de la tolérance des lymphocytes T CD8+ autoréactifs dans nos deux nouveaux modèles murins double transgéniques a permis d’identifier des mécanismes alternatifs possiblement impliqués dans la tolérance et l’activation, et de mieux comprendre le rôle des lymphocytes T CD8+ autoréactifs dans le processus autoimmun menant à l’hépatite autoimmune et au diabète autoimmun. Ces découvertes seront utiles pour développer de nouvelles approches thérapeutiques ciblant les lymphocytes T CD8+ autoréactifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en co-tutelle à l'Université de Montréal et de Paris Sud

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le présent article, nous décrivons les trois façons d’organiser la participation publique à l’échelle municipale au Québec. D’une part, le modèle de participation préconisé par la Loi sur l’aménagement et l’urbanisme (LAU) domine l’ensemble des municipalités du Québec. D’autre part, jusqu’en 2002, les deux plus grandes villes de la province, Montréal et Québec, n’étaient pas soumises aux principes de la LAU. Elles ont ainsi développé des dispositifs participatifs originaux : les audiences publiques et les conseils de quartier. À partir des écrits de Fung (2006 et 2003), nous établissons une grille d’analyse qui définit six facteurs relatifs à l’espace participatif et décrivons par la suite les trois modèles de participation publique municipale au Québec. Nous constatons finalement que les regroupements municipaux ont amené une confrontation entre le modèle dominant de participation publique à l’échelle municipale et les modèles de Québec et de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.