48 resultados para Confirmation Contention


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès Sciences (M.Sc.) en sciences infirmières

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’immigration au Québec se caractérise depuis quelques années par une nouvelle dynamique. La présence d’immigrants socialement perçus comme « minorités ethniques », ou plus précisément comme « minorités visibles », est de plus en plus évidente, surtout dans des contextes urbains où la diversité ethnique est une donnée palpable au quotidien. Dans ce mémoire nous proposons de travailler sur l’impact du loisir défini comme un ensemble de pratiques culturelles, c'est-à-dire des pratiques de loisir enracinées dans l’habitus, à l’appui de l’analyse du processus d’intégration sociale d’un groupe d’immigrants péruviens nouvellement arrivés à Montréal. Cette enquête cherche à explorer le rapport entre loisir et intégration, à partir d’un cadre théorique qui nous permet d’aborder le loisir comme un domaine particulièrement fécond sur le plan de la participation à la société d’accueil. Pour ce faire, nous avons privilégié une approche qualitative qui nous a aidé à « reconstruire » la trajectoire d’intégration de cinq nouveaux arrivants péruviens installés à Montréal depuis cinq ans ou moins. L’analyse des données révèle que le processus d’intégration de ces migrants est difficile, en raison des épreuves de l’adaptation (l’acculturation) à la société hôte, et que les activités liées aux loisirs ont un impact positif sur ledit processus, en partie parce qu’elles jouent un rôle stratégique qui favorise l’adaptation et la participation. Ces activités illustrent aussi les modalités d’une incorporation dans certains domaines de la vie sociale (l’emploi, la vie culturelle, la socialisation amicale) qui permet de ne pas rompre totalement les liens avec la communauté d’origine. Au quotidien, les loisirs permettent un rapprochement avec le groupe majoritaire et, plus largement, avec les autres groupes présents à Montréal : des liens d’amitié se développent, des pratiques de sociabilité se déploient, la consommation de certains biens et services est stimulée, l’individu fait de nouvelles connaissances, etc. Le lien entre communalisation ethnique et intégration permet alors de traverser différents espaces et groupes. Le plaisir reste par ailleurs le moteur des loisirs, c'est-à-dire que les activités choisies par les individus correspondent à leurs goûts, leurs intérêts, et que le loisir, en général, va de pair avec le plaisir. Ce lien favorise le déploiement de « réponses » spécifiques par nos interlocuteurs face aux problèmes d’adaptation, et la confirmation d’une sorte de sentiment d’intégration chez eux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les analyses statistiques ont été réalisées avec le logiciels SPSS 11.0(Statistical Package for Social Sciences) et AMOS 6 (Analysis of Moment Structures. La base de données de l'étude a été crée et receuillie par Caroline Despatie en collaboration avec Dr. Dianne Casoni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lait écrémé est utilisé depuis plus d’un demi-siècle comme diluant protecteur des spermatozoïdes de mammifères. Depuis quelques années, il existe une demande grandissante pour des diluants exempts de produits d’origine animale. Toutefois, le mécanisme par lequel le lait protège les spermatozoïdes n’est pas connu, ce qui rend difficile de lui trouver un substitut. Les protéines majeures du plasma séminal de taureau, les protéines « Binder of SPerm » (BSP), sont néfastes lors de la conservation de la semence. Les spermatozoïdes sont en contact avec une grande concentration de protéines BSP qui stimulent une extraction continuelle de cholestérol/phospholipides de leur membrane plasmique. Les lipoprotéines de faible densité (LDL) du jaune d’oeuf, un autre composé utilisé dans les diluants, empêcheraient les protéines BSP de se lier à la membrane des spermatozoïdes de taureaux et de stimuler un efflux des lipides membranaires, ce qui les protégerait durant la conservation. Notre hypothèse était que les protéines du lait protègent les spermatozoïdes durant la conservation en séquestrant les protéines BSP. Premièrement, nous avons démontré par filtration sur gel qu’il y a une interaction entre les protéines BSP bovines et les protéines du lait. Le lait écrémé a été fractionné en trois fractions : F1 (alpha-lactalbumine, bêta-lactoglobuline et caséine kappa), F2 (toutes les protéines du lait) et F3 (sels, sucres et petits peptides). Les protéines BSP1 et BSP5 ont une affinité plus grande pour F1 que BSP3, tandis que toutes les protéines BSP ont une affinité pour F2. Le titrage calorimétrique isotherme a permis de confirmer l’interaction entre les protéines BSP et les protéines du lait. L’association entre la protéine BSP1 bovine et les micelles de caséines est caractérisée par une constante d’affinité (Ka) de 3.5 × 10^5 M-1 et un paramètre stoichiométrique (n) de 4,5 BSP1 pour une caséine. L’association entre la protéine BSP1 bovine et l’alpha-lactalbumine (une protéine du sérum principale), est caractérisée par un Ka de 2.4 × 10^5 M-1 et une valeur “n” de 0,8. Ces résultats indiquent que le lait protège les spermatozoïdes bovins en séquestrant les protéines BSP grâce à une interaction protéine : protéine, tandis que le jaune d’oeuf les protège grâce à une interaction protéine : lipoprotéine. Deuxièmement, nous avons démontré par filtration sur gel que les protéines homologues aux BSP bovines retrouvées dans le plasma séminal de porc, d’étalon et de bélier ont une affinité avec les protéines du lait, ce qui suggère que le mécanisme de protection des spermatozoïdes par le lait pourrait être le même chez ces espèces. Troisièmement, nous avons caractérisé l’interaction entre BSP1 bovine et les LDL du jaune d’oeuf qui a un Ka de 3.4 ± 0.4 × 10^6 M-1 et une valeur de « n » de 104 BSP1 pour une particule de LDL, indiquant qu’il existe des différences entre le mécanisme de protection des spermatozoïdes par le lait et le jaune d’oeuf. Nous croyons que les résultats présentés dans cette thèse aideront à créer de nouveaux diluants ne contenant pas de produits d’origine animale afin de cryoconserver les spermatozoïdes des mammifères.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire cherche à faire ressortir la teneur philosophique de la critique kierkegaardienne de Hegel en s’inscrivant dans la lignée des travaux de Thulstrup et de Stewart. Comme plusieurs grands penseurs, Kierkegaard est apparu bien après sa mort sur la scène de l’histoire de la philosophie occidentale et ses œuvres les plus lues sont surtout celles concertant Hegel, de sorte que son anti-hégélianisme est vite devenu une affaire bien connue. En 1967, Thulstrup produit le premier travail consacré à l’ensemble de la critique kierkegaardienne de Hegel, travail dont les résultats confortent l’idée selon laquelle Kierkegaard n’aurait rien à voir avec Hegel. Mais il suscitera aussi, en 2003, la réaction de Stewart, qui trouve avant tout, derrière les allusions kierkegaardiennes à Hegel, une critique de ses contemporains hégéliens danois. Or, si Stewart éclaire brillamment l’historicité kierkegaardienne, il laisse de côté sa teneur philosophique. Notre mémoire tâchera donc de présenter une conception de l’œuvre kierkegaardienne comme exception, à partir de laquelle nous serons à même de comprendre allégoriquement son rapport à Hegel comme confirmation de la règle. Pour ce faire, nous produirons une exposition rassemblant thématiquement les allusions kierkegaardiennes à Hegel, ce qui permettra de constater chez Kierkegaard une variation sur le plan éthique à partir de 1843, problème qui ne peut s’expliquer que par une concrétisation de l’exception vers une forme particulière du religieux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Cette étude vise à évaluer la stabilité de la chirurgie LeFort I multisegmentaire à moyen (fin du traitement orthodontique) et à long termes dans les trois plans de l'espace (transversal, antéro-postérieur et vertical). Matériel et méthodes : L'échantillon étudié est composé de 31 patients traités en clinique privée, ayant eu une chirurgie LeFort I multisegmentaire en deux, trois ou quatre morceaux, et ayant terminé leur traitement orthodontique. Parmi eux, 17 patients ayant terminé leur traitement orthodontique depuis plus de deux ans (moyenne de trois ans post-traitement) ont permis d'évaluer la stabilité de la procédure chirurgicale à long terme. La collecte des données a été réalisée sur des modèles et des radiographies céphalométriques latérales pris à des temps précis tout au long du traitement orthodontique, ainsi que pendant la période de contention. Concernant l'analyse statistique, des T-tests et des corrélations de Pearson ont été utilisés. Le test de Bland-Altman et le coefficient de corrélation intra-classe ont permis d'analyser les fiabilités intra-examinateur et inter-examinateurs. Résultats : Une récidive transverse significative, mais très faible cliniquement, est constatée aux niveaux prémolaires et molaires entre la chirurgie et la fin du traitement orthodontique. Elle est corrélée avec l’expansion totale réalisée. Cette récidive transverse est non significative suite au traitement orthodontique. Aucune corrélation statistiquement significative n'est mise en évidence entre le nombre de segments et la récidive transverse postchirurgicale. Une variation de certaines mesures antéro-postérieures et verticales statistiquement significative, mais faible cliniquement, est notée entre la chirurgie et la fin du traitement orthodontique (avancement et impaction postérieure). Pour les mesures antéro-postérieures et verticales, aucun changement n'est statistiquement significatif suite au traitement orthodontique. Conclusion : Pour l'échantillon étudié, la stabilité de l'ostéotomie de type LeFort I multisegmentaire est très bonne, dans les trois plans de l'espace étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En démontrant sa capacité d’identifier les pneumothorax, de différencier les différentes causes d’insuffisance respiratoire chez les patients dyspnéiques et de confirmer la position d’un tube endotrachéal lors d’une intubation endotrachéale, l’échographie pulmonaire a pris une place prépondérante dans la prise en charge des patients de soins critiques. La majorité des études, notamment celles sur l’intubation endotrachéale, ont évalué la performance de cliniciens possédant une expérience considérable en échographie pulmonaire et souvent dans un cadre idéal permettant des examens d’une durée prolongée. Considérant la disponibilité grandissante de l’échographie ciblée lors des situations de stabilisation et de réanimation des patients de soins critiques, nous voulions évaluer la capacité d’un groupe de clinicien hétérogène en termes de formation échographique à identifier la présence ou l’absence de glissement pleural sur de courtes séquences (comparable à la durée probable d’un examen lors de condition de réanimation) d’échographie pulmonaire enregistrées chez des patients intubés. Un total de 280 courtes séquences (entre 4 et 7 secondes) d’échographie pulmonaire démontrant la présence ou l’absence de glissement pleural chez des patients intubés en salle d’opération ont été enregistrées puis présentées de façon aléatoire à deux groupes de cliniciens en médecine d’urgence. Le deuxième groupe avait la possibilité de s’abstenir advenant une incertitude de leur réponse. Nous avons comparé la performance selon le niveau de formation académique et échographique. Le taux moyen d’identification adéquate de la présence ou l’absence du glissement pleural par participant était de 67,5% (IC 95% : 65,7-69,4) dans le premier groupe et 73,1% (IC 95% : 70,7-75,5) dans le second (p<0,001). Le taux médian de réponse adéquate pour chacune des 280 séquences était de 74,0% (EIQ : 48,0-90,0) dans le premier groupe et 83,7% (EIQ : 53,3-96,2) dans le deuxième (p=0,006). Le taux d’identification adéquate de la présence ou absence d’un glissement pleural par les participants des deux groupes était nettement supérieur pour les séquences de l’hémithorax droit par rapport à celles de l’hémithorax gauche (p=0,001). Lorsque des médecins de formation académique et échographique variable utilisent de courtes séquences d’échographie pulmonaire (plus représentatives de l’utilisation réelle en clinique), le taux d’identification adéquate de la présence ou l’absence de glissement pleural est plus élevé lorsque les participants ont la possibilité de s’abstenir en cas de doute quant à leur réponse. Le taux de bonnes réponses est également plus élevé pour les séquences de l’hémithorax droit, probablement dû à la présence sous-jacente du cœur à gauche, la plus petite taille du poumon gauche et l’effet accru du pouls pulmonaire dans l’hémithorax gauche. Considérant ces trouvailles, la prudence est de mise lors de l’utilisation de l’identification du glissement pleural sur de courtes séquences échographique comme méthode de vérification de la position d’un tube endotrachéal lors d’une intubation endotrachéale, et ce, particulièrement pour l’hémithorax gauche. Aussi, une attention particulière devrait être mise sur la reconnaissance du pouls pulmonaire lors de l’enseignement de l’échographie pulmonaire.