341 resultados para Taille d’échantillon
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
Une sous-population des neurones à dopamine (DA) du mésencéphale ventral du rat et de la souris étant connue pour exprimer l'ARN messager du transporteur vésiculaire 2 du glutamate (VGLUT2), nous avons eu recours à l'immunocytochimie en microscopie électronique, après simple ou double marquage de l'enzyme de synthèse tyrosine hydroxylase (TH) et de VGLUT2, pour déterminer la présence de l'une et/ou l'autre protéine dans les terminaisons (varicosités) axonales de ces neurones et caractériser leur morphologie ultrastructurale dans diverses conditions expérimentales. Dans un premier temps, des rats jeunes (P15) ou adultes (P90), ainsi que des rats des deux âges soumis à l'administration intraventriculaire cérébrale de la cytotoxine 6-hydroxydopamine (6-OHDA) dans les jours suivant la naissance, ont été examinés, afin d'étayer l'hypothèse d'un rôle de VGLUT2 au sein des neurones DA, au cours du développement normal ou pathologique de ces neurones. Chez le jeune rat, ces études ont montré: i) la présence de VGLUT2 dans une fraction importante des varicosités axonales TH immunoréactives du coeur du noyau accumbens ainsi que du néostriatum; ii) une augmentation de la proportion de ces terminaisons doublement marquées dans le noyau accumbens par suite de la lésion 6-OHDA néonatale; iii) le double marquage fréquent des varicosités axonales appartenant à l'innervation DA aberrante (néoinnervation), qui se développe dans la substance noire, par suite de la lésion 6-OHDA néonatale. Des différences significatives ont aussi été notées quant à la dimension des terminaisons axonales marquées pour la TH seulement, VGLUT2 seulement ou TH et VGLUT2. Enfin, à cet âge (P15), toutes les terminaisons doublement marquées sont apparues dotées d'une spécialisation membranaire synaptique, contrairement aux terminaisons marquées pour la TH ou pour VGLUT2 seulement. Dans un deuxième temps, nous avons voulu déterminer le devenir du double phénotype chez le rat adulte (P90) soumis ou non à la lésion 6-OHDA néonatale. Contrairement aux observations recueillies chez le jeune rat, nous avons alors constaté: i) l'absence complète de terminaisons doublement marquées dans le coeur du noyau accumbens et le néostriatum d'animaux intacts, de même que dans les restes de la substance noire des animaux 6-OHDA lésés; ii) une très forte baisse de leurnombre dans le coeur du noyau accumbens des animaux 6-OHDA lésés. Ces observations, suggérant une régression du double phénotype TH/VGLUT2 avec l'âge, sont venues renforcer l'hypothèse d'un rôle particulier d'une co-libération de glutamate par les neurones mésencéphaliques DA au cours du développement. Dans ces conditions, il est apparu des plus intéressants d'examiner l'innervation DA méso-striatale chez deux lignées de souris dont le gène Vglut2 avait été sélectivement invalidé dans les neurones DA du cerveau, ainsi que leurs témoins et des souris sauvages. D'autant que malgré l'utilisation croissante de la souris en neurobiologie, cette innervation DA n'avait jamais fait l'objet d’une caractérisation systématique en microscopie électronique. En raison de possibles différences entre le coeur et la coque du noyau accumbens, l'étude a donc porté sur les deux parties de ce noyau ainsi que le néostriatum et des souris jeunes (P15) et adultes (P70-90) de chaque lignée, préparées pour l'immunocytochimie de la TH, mais aussi pour le double marquage TH et VGLUT2, selon le protocole précédemment utilisé chez le rat. Les résultats ont surpris. Aux deux âges et quel que soit le génotype, les terminaisons axonales TH immunoréactives des trois régions sont apparues comparables quant à leur taille, leur contenu vésiculaire, le pourcentage contenant une mitochondrie et une très faible incidence synaptique (5% des varicosités, en moyenne). Ainsi, chez la souris, la régression du double phénotype pourrait être encore plus précoce que chez le rat, à moins que les deux protéines ne soient très tôt ségréguées dans des varicosités axonales distinctes des mêmes neurones DA. Ces données renforcent aussi l’hypothèse d’une transmission diffuse (volumique) et d’un niveau ambiant de DA comme élément déterminant du fonctionnement du système mésostriatal DA chez la souris comme chez le rat.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Cette étude s'intéresse à la perception de l'avènement de la télévision (1952-1962) du point de vue des intellectuels canadiens-français. À cette époque, la province du Québec est dirigée par le gouvernement conservateur de l'Union nationale de Maurice Duplessis qui semble indélogeable pendant les années 1950. En même temps, l'Église catholique maintient son contrôle sur la société canadienne-française, plus particulièrement ses idéologies. Dans ce climat, la discordance intellectuelle avec ces deux pouvoirs mène souvent à la marginalité. Pour diverses raisons, la télévision, et plus particulièrement la Société Radio-Canada (SRC), ne sont pas soumises à ces contraintes. Nouveau média, tout doit être crée pour « alimenter le monstre », comme il a été déjà dit. Si l'équivalent anglophone de la SRC peut acheter des émissions sur le marché international, la télévision francophone mondiale est embryonnaire. L'antenne montréalaise de la SRC se retrouve en situation autarcique et doit s'appuyer sur les ressources du Canada français pour créer ses émissions d'actualités et de divertissements. Un déf de taille attend les premiers artisans de la télévision. Dans ce contexte, comment les intellectuels canadiens-français ont-ils perçu l'avènement de la télévision? Cette étude tente d'apporter quelques éléments de réponse en prenant en compte l'idéologie des intellectuels.
Resumo:
Cette étude porte sur l’écologie saisonnière des parasitoïdes des œufs de l’arpenteuse de la pruche (Lepidoptera : Geometridae), un important défoliateur du Québec (Canada). Premièrement, nous décrivons les patrons saisonniers de parasitisme d’hôtes sentinelles par Telenomus coloradensis, T. droozi, T. flavotibiae (Hymenoptera : Scelionidae), et Trichogramma spp., dans la région du Bas-Saint-Laurent. Telenomus flavotibiae et Trichogramma spp. parasitent rarement les œufs de l’arpenteuse de la pruche alors que T. coloradensis et T. droozi sont très abondants au printemps. En laboratoire, la convenance des hôtes pour T. coloradensis diminue rapidement avec leur développement embryonnaire au printemps, affectant négativement les niveaux de parasitisme, ainsi que la survie, la taille, le temps de développement et la longévité de la progéniture. Telenomus coloradensis et T. droozi sont actifs très tôt en saison, alors que les températures sont froides (4°C) pour profiter du développement embryonnaire peu avancé de l’hôte. À partir de paramètres empiriques, nous estimons que la progéniture de T. coloradensis issue du parasitisme printanier émerge au milieu de l’été, alors que l’hôte est totalement absent de l’environnement forestier. La nouvelle génération de femelles serait donc susceptible d’entrer précocement en diapause reproductive. D’ailleurs, nos résultats de laboratoire démontrent qu’une période de privation d’hôtes affecte négativement l’activité parasitaire de T. coloradensis. Ce phénomène pourrait expliquer les niveaux très faibles de parasitisme des œufs de l’arpenteuse de la pruche à l’automne. Étonnamment toutefois, les hôtes en début de diapause (à l’automne) sont de meilleure qualité énergétique que les hôtes en post-diapause (au printemps). Alors que des études précédentes ont démontré que T. coloradensis peut survivre à l’hiver en tant qu’immature à l’intérieur des hôtes, nos résultats indiquent que ce sont principalement les femelles fertilisés qui passent l’hiver en diapause reproductive, avec un point de surfusion automnal moyen de -30,6°C.
Resumo:
Le ministère de l’Éducation, du Loisir et du Sport (MELS) publie tous les ans des indicateurs (MELS, 2007) qui traitent de plusieurs aspects du système scolaire québécois. Quoique le MELS insiste sur l’obligation pour les écoles primaires et secondaires d’obtenir des résultats probants en termes d’« efficacité », les indicateurs utilisés pour apprécier la performance des écoles ne sont pas nécessairement conçus à cette fin. Une étude du MELS rapporte que les élèves de 5e secondaire éprouvent de la difficulté à obtenir de bons résultats à deux critères de correction (syntaxe et ponctuation, orthographe), parmi les six de l’épreuve unique de français écrit (MELS, 2008). Ce fait nous amène à nous intéresser à l’étude de la modélisation des liens entre des facteurs associés à l’environnement scolaire et les résultats des élèves de la région métropolitaine de Montréal, en ce qui a trait à ces deux critères pour les cohortes des années 2006, 2007 et 2008. Nous procédons d’abord à des analyses descriptives des variables pour chacune des trois populations. Nous poursuivons l’analyse en effectuant plusieurs modélisations multiniveaux multivariées des deux critères en fonction de variables indépendantes, caractéristiques de l’élève et de l’école. Les résultats de la présente recherche indiquent une relative stabilité dans la performance des élèves pour les trois années, avec une légère amélioration de la performance pour la cohorte de 2007, et qui se maintient pour la cohorte de 2008. Les élèves du secteur privé obtiennent de meilleurs résultats que ceux du public. Le résultat des filles est supérieur à celui des garçons et les élèves de langue maternelle française obtiennent de meilleurs résultats que ceux de langues maternelles différentes du français. Il importe cependant d’apporter quelques nuances dans l’interprétation de ces résultats. En outre, la part de variance dans la performance des élèves attribuable à l’élève est de l’ordre de 75,0 % et de l’ordre de 25,0 % à l’école. On note un effet différentiel des facteurs d’élève et d’école selon le critère considéré. Les variables caractéristiques de l’élève comptent pour 13,9 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 9,8 % en orthographe. Les variables caractéristiques de l’école comptent pour 3,7 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 6,4 % en orthographe. Certains facteurs d’école, comme la taille, la mixité ne semblent pas présenter un lien significatif avec la performance des élèves.
Resumo:
But: Cette étude a pour but de comparer : a)la morphologie du plancher pelvien (PP), du col vésical et du sphincter urogénital strié (SUS) par IRM et b) la fonction du PP par palpation digitale (PERFECT scheme) chez les femmes âgées continentes ou avec incontinence urinaire à l’effort (IUE) et mixte (IUM). Méthode: Les femmes ont appris à contracter correctement leur PP et la fonction de leur PP a été évaluée. Une séance d’IRM dynamique 3T a suivi. Résultats: 66 femmes ont participé à l’étude. Les groupes étaient similaires en âge, IMC, nombre d’accouchements vaginaux et d’hystérectomie. La validité et la fidélité des différentes mesures anatomiques utilisées ont été confirmées au début de cette étude. Afin de contrôler l’effet potentiel de la taille du bassin sur les autres paramètres, les femmes ont été appariées par la longueur de leur inlet pelvien. Les femmes avec IUM ont un PP plus bas et un support des organes pelviens plus faible, selon leurs ligne M, angle LPC/Ligne H et hauteur de la jonction urétro-vésicale (UV). Les femmes avec IUE ont un PP similaire à celui des continentes, mais présentent plus d’ouverture du col vésical et un angle UV postérieur plus large au repos que les autres groupes. Il n’y a aucune différence de morphologie du SUS entre les groupes. De plus, selon les résultats du PERFECT scheme, les femmes avec IU ont une force du PP plus faible que les continentes. Les femmes avec IUM montrent aussi une faible élévation des muscles du PP à la contraction. Les femmes avec IUE ont, quant à elle, un problème de coordination à la toux. Conclusion: Les déficits causant l’IUE et l’IUM sont différents, mais supportent tous le rationnel des exercices du PP pour le traitement de l’IUE et l’IUM. Ces résultats supportent le besoin de traitements de rééducation spécifiques aux déficits de chacun des types d’IU.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.
Resumo:
Contexte : Les répercussions de l’alcool au niveau des fonctions cognitives sont bien documentées. Certaines hypothèses suggèrent que l’alcool affecte des fonctions cognitives spécifiques alors que d’autres avancent l’hypothèse de déficits diffus. Cependant, une ambigüité persiste concernant quelles fonctions cognitives sont le plus touchées par l’alcool, et à quel point la durée d’abstinence affecte la récupération cognitive. Nous avons procédé à une des premières méta-analyses qui s’intéresse aux différentes fonctions cognitives touchées par la consommation problématique d’alcool et à la durée d’abstinence requise pour une récupération au niveau des cognitions. Méthodes : Une recherche de la littérature a permis d’identifier 62 études évaluant les cognitions chez les personnes présentant des troubles liés à l’utilisation d’alcool. Les estimations de la taille d’effet ont été calculées avec la Comprehensive Meta Analysis –V2 pour les 12 domaines cognitifs suivants : quotient intellectuel, fluidité verbale/langage, vitesse de traitement de l’information, mémoire de travail, attention, résolution de problème/fonctions exécutives, inhibition/impulsivité, apprentissage verbal, mémoire verbale, apprentissage visuel, mémoire visuelle, habiletés visuo-spatiales. Parmi ces 12 domaines cognitifs, 3 estimations de la taille d’effet ont été calculées selon les durées d’abstinences suivantes : court- (<1 mois), moyen- (2 à 12 mois) et long- (>1 an) termes. Résultats : Les résultats ont révélé la présence de dysfonctions modérées dans 11 domaines cognitifs durant l’abstinence à court terme, et dans 10 domaines cognitifs pour le moyen-terme. Des dysfonctions cognitives minimales furent notées durant l’abstinence à long-terme. Conclusions : Ces résultats révèlent des déficits cognitifs significatifs et diffus durant la première année d’abstinence. Déficits qui se normalisent après un an. Ces résultats soutiennent l’hypothèse de déficits cognitifs diffus reliés à l’alcoolisme et suggèrent que la cognition devrait faire partie intégrante du traitement d’alcoolisme.
Resumo:
Cette thèse porte sur les conflits entre centres et périphéries à l’intérieur des pays. Ces dernières années, de nombreux États ont vu l'émergence de régions ou territoires qui défient leurs «centres» politiques. Ces disputes peuvent atteindre divers degrés d'affrontement, en allant des simples divisions électorales à la sécession d'une périphérie rebelle. Pourquoi certaines régions défient-elles ouvertement leur centre, tandis que d'autres ne le font pas? Dans quelles conditions les différences entre le centre et les périphéries sont-elles maîtrisées et circonscrites, et quelles sont celles qui les exacerbent? La thèse cherche à répondre à ces questions en analysant les cas de la Bolivie et du Pérou. En Bolivie, pendant les années 2000, le conflit régional a donné lieu à un clivage entre centre et périphérie; au Pérou, malgré les similitudes avec la Bolivie, un clivage similaire ne s’est pas déployé. Pourquoi cette différence? La thèse répond à la question par une analyse historique comparée. Elle suggère que les conflits entre le centre et les périphéries doivent s’analyser à partir de la combinaison de deux dimensions. La première est l’absence ou la présence d’élites régionales qui, à partir d'organisations et de mises en discours qu'elles rendent légitimes, définissent et représentent les revendications de la région et négocient avec l'État central. La deuxième dimension renvoie aux conditions structurelles de la région, en particulier l'importance des ressources naturelles et la taille de sa population. La thèse développe une analyse historique de la façon dont les deux dimensions ont évolué en Bolivie et au Pérou au cours de la seconde moitié du XX siècle. Cette analyse permet d’expliquer la divergence entre les résultats dans chacun des cas, et de suggérer des réflexions plus générales sur les relations entre les centres et les périphéries.
Resumo:
En démontrant sa capacité d’identifier les pneumothorax, de différencier les différentes causes d’insuffisance respiratoire chez les patients dyspnéiques et de confirmer la position d’un tube endotrachéal lors d’une intubation endotrachéale, l’échographie pulmonaire a pris une place prépondérante dans la prise en charge des patients de soins critiques. La majorité des études, notamment celles sur l’intubation endotrachéale, ont évalué la performance de cliniciens possédant une expérience considérable en échographie pulmonaire et souvent dans un cadre idéal permettant des examens d’une durée prolongée. Considérant la disponibilité grandissante de l’échographie ciblée lors des situations de stabilisation et de réanimation des patients de soins critiques, nous voulions évaluer la capacité d’un groupe de clinicien hétérogène en termes de formation échographique à identifier la présence ou l’absence de glissement pleural sur de courtes séquences (comparable à la durée probable d’un examen lors de condition de réanimation) d’échographie pulmonaire enregistrées chez des patients intubés. Un total de 280 courtes séquences (entre 4 et 7 secondes) d’échographie pulmonaire démontrant la présence ou l’absence de glissement pleural chez des patients intubés en salle d’opération ont été enregistrées puis présentées de façon aléatoire à deux groupes de cliniciens en médecine d’urgence. Le deuxième groupe avait la possibilité de s’abstenir advenant une incertitude de leur réponse. Nous avons comparé la performance selon le niveau de formation académique et échographique. Le taux moyen d’identification adéquate de la présence ou l’absence du glissement pleural par participant était de 67,5% (IC 95% : 65,7-69,4) dans le premier groupe et 73,1% (IC 95% : 70,7-75,5) dans le second (p<0,001). Le taux médian de réponse adéquate pour chacune des 280 séquences était de 74,0% (EIQ : 48,0-90,0) dans le premier groupe et 83,7% (EIQ : 53,3-96,2) dans le deuxième (p=0,006). Le taux d’identification adéquate de la présence ou absence d’un glissement pleural par les participants des deux groupes était nettement supérieur pour les séquences de l’hémithorax droit par rapport à celles de l’hémithorax gauche (p=0,001). Lorsque des médecins de formation académique et échographique variable utilisent de courtes séquences d’échographie pulmonaire (plus représentatives de l’utilisation réelle en clinique), le taux d’identification adéquate de la présence ou l’absence de glissement pleural est plus élevé lorsque les participants ont la possibilité de s’abstenir en cas de doute quant à leur réponse. Le taux de bonnes réponses est également plus élevé pour les séquences de l’hémithorax droit, probablement dû à la présence sous-jacente du cœur à gauche, la plus petite taille du poumon gauche et l’effet accru du pouls pulmonaire dans l’hémithorax gauche. Considérant ces trouvailles, la prudence est de mise lors de l’utilisation de l’identification du glissement pleural sur de courtes séquences échographique comme méthode de vérification de la position d’un tube endotrachéal lors d’une intubation endotrachéale, et ce, particulièrement pour l’hémithorax gauche. Aussi, une attention particulière devrait être mise sur la reconnaissance du pouls pulmonaire lors de l’enseignement de l’échographie pulmonaire.