11 resultados para literature-based discovery

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est connu qu’on retrouve chez les femmes en post-ménopause un risque plus important de développer des maladies oculaires comparativement aux hommes du même groupe d’âge. Il semble que les changements hormonaux, et en particulier la baisse importante des niveaux d’estradiol, secondaires à la sénescence folliculaire constituent un facteur étiologique à long terme. Cela étant, il est légitime de se demander si les variations des niveaux d’hormones sexuelles endogènes peuvent également occasionner des effets à court terme sur les tissus de l’œil. Cette interrogation constitue d’ailleurs le motif principal de l’élaboration de la présente étude. Sachant qu’il se produit chez les femmes non ménopausées des variations continuelles des niveaux d’hormones sexuelles stéroïdiennes au cours de leur cycle menstruel, des femmes en âge de procréer ont été recrutées comme sujets d’étude. Dans un deuxième temps, afin de trouver le paramètre d’intérêt, on a effectué une revue de la documentation scientifique qui révèle un fait bien établi : les estrogènes favorisent la vasodilatation des vaisseaux sanguins par l’intermédiaire du monoxyde d’azote, et permettent, par le fait même, l’accroissement du débit sanguin tissulaire. Or, comment mesurer des variations de débit sanguin dans des tissus oculaires? Comme il est expliqué dans la discussion du présent mémoire, les variations d’oxygénation dans un organe dont le métabolisme est relativement stable sont le reflet de variations de débit sanguin. Grâce à une technique de mesure basée sur la spectroréflectométrie, il est possible de mesurer le taux d’oxyhémoglobine (HbO2) des lits capillaires du disque optique. En observant les variations du taux d’oxyhémoglobine au cours du cycle menstruel chez les sujets, on peut ainsi mesurer l’effet des variations hormonales cycliques sur l’irrigation des tissus oculaires. En somme, l’objectif de cette recherche est de mieux comprendre, en suivant le cycle menstruel des femmes, l’effet des hormones sexuelles endogènes sur l’oxygénation des lits capillaires du disque optique. Étant à la base du métabolisme de l’œil, l’apport en oxygène et en divers substrat véhiculés par la circulation sanguine est important au maintien de la santé oculaire. L’éclaircissement du lien entre les hormones et l’oxygénation de la rétine constituerait un avancement important, puisqu’il permettrait de comprendre pourquoi certaines atteintes oculaires, comme la cécité, touchent davantage les femmes. Les résultats de cette étude ont démontré que le taux d’oxyhémoglobine mesuré dans les lits capillaires du disque optique de l’œil ne subit pratiquement pas de variations significatives durant le cycle menstruel lorsqu’on considère les incertitudes des valeurs mesurées. Également, on observe une variabilité similaire des taux d’oxyhémoglobine mesurés chez les femmes en âge de procréation et chez les hommes du même groupe d’âge. Cela suggère que les changements hormonaux cycliques, qui ne se produisent que chez les femmes, n’occasionnent probablement pas de variation significative mesurable du taux d’oxyhémoglobine. Bref, malgré les effets possibles des estrogènes sur le diamètre artériolaire, il semble que les mécanismes locaux de régulation du débit sanguin tissulaire maintiennent un état d’équilibre propre au tissu irrigué et adapté aux besoins métaboliques locaux.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: Bien que l'importance de transférer les données de la recherche à la pratique a été largement démontrée, ce processus est toujours lent et fait face à plusieurs défis tels que la conceptualisation des évidences, la validité interne et externe de la recherche scientifique et les coûts élevés de la collecte de grandes quantités de données axées sur le patient. Les dossiers dentaires des patients contiennent des renseignements valables qui donneraient aux chercheurs cliniques une opportunité d'utiliser un large éventail d'informations quantitatives ou qualitatives. La standardisation du dossier clinique permettrait d’échanger et de réutiliser des données dans différents domaines de recherche. Objectifs: Le but de cette étude était de concevoir un dossier patient axé sur la recherche dans le domaine de la prosthodontie amovible à la clinique de premier cycle de l’Université de Montréal. Méthodes: Cette étude a utilisé des méthodes de recherche-action avec 4 étapes séquentielles : l'identification des problèmes, la collecte et l'interprétation des données, la planification et l’évaluation de l'action. Les participants de l'étude (n=14) incluaient des professeurs, des chercheurs cliniques et des instructeurs cliniques dans le domaine de la prosthodontie amovible. La collecte des données a été menée à l’aide d’une revue de littérature ciblée et complète sur les résultats en prosthodontie ainsi que par le biais de discussions de groupes et d’entrevues. Les données qualitatives ont été analysées en utilisant QDA Miner 3.2.3. Résultats: Les participants de l'étude ont soulevé plusieurs points absents au formulaire actuel de prosthodontie à la clinique de premier cycle. Ils ont partagé leurs idées pour la conception d'un nouveau dossier-patient basé sur 3 objectifs principaux: les objectifs cliniques, éducatifs et de recherche. Les principaux sujets d’intérêt en prosthodontie amovibles, les instruments appropriés ainsi que les paramètres cliniques ont été sélectionnés par le groupe de recherche. Ces résultats ont été intégrés dans un nouveau formulaire basé sur cette consultation. La pertinence du nouveau formulaire a été évaluée par le même groupe d'experts et les modifications requises ont été effectuées. Les participants de l'étude ont convenu que le cycle de recherche-action doit être poursuivi afin d'évaluer la faisabilité d’implémentation de ce dossier modifié dans un cadre universitaire. Conclusion: Cette étude est une première étape pour développer une base de données dans le domaine de la prothodontie amovible. La recherche-action est une méthode de recherche utile dans ce processus, et les éducateurs académiques sont bien placés pour mener ce type de recherche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude conduit les traditions fragmentées de la culture littéraire de Trieste vers les préoccupations contemporaines de la littérature mondiale à l’époque actuelle où la mondialisation est largement perçue comme le paradigme historique prédominant de la modernité. Ce que j’appelle la « littérature globalisée » renvoie à la refonte de la Weltliteratur – envisagée par Goethe et traduite comme « world literature » ou la « littérature universelle » – par des discours sur la culture mondiale et le post-nationalisme. Cependant, lorsque les études littéraires posent les questions de la « littérature globalisée », elles sont confrontées à un problème : le passage de l’idée universelle inhérente au paradigme de Goethe entre le Scylla d’un internationalisme relativiste et occidental, et le Charybde d’un mondialisme atopique et déshumanisé. Les spécialistes de la littérature mondiale qui tendent vers la première position acquièrent un fondement institutionnel en travaillant avec l’hypothèse implicite selon laquelle les nations sont fondées sur les langues nationales, ce qui souscrit à la relation entre la littérature mondiale et les littératures nationales. L’universalité de cette hypothèse implicite est réfutée par l’écriture triestine. Dans cette étude, je soutiens que l’écriture triestine du début du XXe siècle agit comme un précurseur de la réflexion sur la culture littéraire globalisée du XXIe siècle. Elle dispose de sa propre économie de sens, de sorte qu’elle n’entre pas dans les nationalismes littéraires, mais elle ne tombe pas non plus dans le mondialisme atopique. Elle n’est pas catégoriquement opposée à la littérature nationale; mais elle ne permet pas aux traditions nationales de prendre racine. Les écrivains de Triestine exprimaient le désir d’un sentiment d’unité et d’appartenance, ainsi que celui d’une conscience critique qui dissout ce désir. Ils résistaient à l’idéalisation de ces particularismes et n’ont jamais réussi à réaliser la coalescence de ses écrits dans une tradition littéraire unifiée. Par conséquent, Trieste a souvent été considérée comme un non-lieu et sa littérature comme une anti-littérature. En contournant les impératifs territoriaux de la tradition nationale italienne – comme il est illustré par le cas de Italo Svevo – l’écriture triestine a été ultérieurement incluse dans les paramètres littéraires et culturels de la Mitteleuropa, où son expression a été imaginée comme un microcosme de la pluralité supranationale de l’ancien Empire des Habsbourg. Toutefois, le macrocosme projeté de Trieste n’est pas une image unifiée, comme le serait un globe; mais il est plutôt une nébuleuse planétaire – selon l’image de Svevo – où aucune idéalisation universalisante ne peut se réaliser. Cette étude interroge l’image de la ville comme un microcosme et comme un non-lieu, comme cela se rapporte au macrocosme des atopies de la mondialisation, afin de démontrer que l’écriture de Trieste est la littérature globalisée avant la lettre. La dialectique non résolue entre faire et défaire la langue littéraire et l’identité à travers l’écriture anime la culture littéraire de Trieste, et son dynamisme contribue aux débats sur la mondialisation et les questions de la culture en découlant. Cette étude de l’écriture triestine offre des perspectives critiques sur l’état des littératures canoniques dans un monde où les frontières disparaissent et les non-lieux se multiplient. L’image de la nébuleuse planétaire devient possiblement celle d’un archétype pour le monde globalisé d’aujourd’hui.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Purpose. Clinicians commonly assess posture in persons with musculoskeletal disorders and tend to do so subjectively. Evidence-based practice requires the use of valid, reliable and sensitive tools to monitor treatment effectiveness. The purpose of this article was to determine which methods were used to assess posture quantitatively in a clinical setting and to identify psychometric properties of posture indices measured from these methods or tools. Methods. We conducted a comprehensive literature review. Pertinent databases were used to search for articles on quantitative clinical assessment of posture. Searching keywords were related to posture and assessment, scoliosis, back pain, reliability, validity and different body segments. Results. We identified 65 articles with angle and distance posture indices that corresponded to our search criteria. Several studies showed good intra- and inter-rater reliability for measurements taken directly on the persons (e.g., goniometer, inclinometer, flexible curve and tape measurement) or from photographs, but the validity of these measurements was not always demonstrated. Conclusion. Taking measurements of all body angles directly on the person is a lengthy process and may affect the reliability of the measurements. Measurement of body angles from photographs may be the most accurate and rapid way to assess global posture quantitatively in a clinical setting.