338 resultados para Somme directe
em Université de Montréal, Canada
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Dans ce mémoire sont décrites deux méthodologies impliquant la synthèse de biaryles via l’arylation directe d’espèces aromatiques non activées, catalysée par différents éléments de transition. La première partie présente les résultats obtenus dans le cadre du développement d’une méthode simple d’arylation directe du benzène catalysée au palladium. Cette méthodologie a l’avantage de procéder sans l’ajout de ligand phosphine généralement utilisé dans les systèmes catalytiques avec le palladium et par conséquent cette réaction peut évoluer à l’air libre sans nul besoin d’une atmosphère inerte. Il est proposé que le mécanisme de formation de ces motifs biarylés pourrait passer par la mise en place d’un palladium d’espèce cationique. Ces composés pourraient éventuellement s’avérer intéressants dans la synthèse de produits pharmaceutiques comportant un motif biphényle de ce type. La deuxième partie est consacrée à une méthodologie très attrayante utilisée pour la synthèse des biphényles impliquant le fer comme catalyseur. Plusieurs catalyseurs à base de rhodium, palladium et ruthénium ont démontré leur grande efficacité dans les processus de couplage direct (insertion C-H). Cette méthodologie consiste en la première méthode efficace d’utilisation d’un catalyseur de fer dans les couplages directs sp2-sp2 avec les iodures d’aryles et iodures d’hétéroaryles. Les avantages du fer, impliquent sans contredit, des coûts moindres et des impacts environnementaux bénins. Les conditions réactionnelles sont douces, la réaction peut tolérer la présence de plusieurs groupements fonctionnels et cette dernière peut même se produire à température ambiante. La transformation s’effectue généralement avec de très bons rendements et des études mécanistiques ont démontré que le processus réactionnel était radicalaire.
Resumo:
L'axe hypothalamo-hypophyso-surrénalien (HPA) permet de maintenir l'homéostasie de l'organisme face à divers stress. Qu'ils soient de nature psychologique, physique ou inflammatoire/infectieux, les stress provoquent la synthèse et la libération de CRH par l'hypothalamus. Les cellules corticotropes hypophysaires perçoivent ce signal et en réaction, produisent et sécrètent l'ACTH. Ceci induit la synthèse des glucocorticoïdes (Gc) par le cortex surrénalien; ces stéroïdes mettent le système métabolique en état d’alerte pour la réponse au stress et à l’agression. Les Gc ont le rôle essentiel de contrôler les défenses de l'organisme, en plus d'exercer une rétro-inhibition sur l'axe HPA. L'ACTH est une petite hormone peptidique produite par le clivage d'un précurseur: la pro-opiomélanocortine (POMC). À cause de sa position critique dans la normalisation de l'homéostasie, le contrôle transcriptionnel du gène Pomc a fait l'objet d'études approfondies au cours des dernières décennies. Nous savons maintenant que la région promotrice du gène Pomc permet une expression ciblée dans les cellules POMC hypophysaires. L'étude du locus Pomc par des technologies génomiques m'a permis de découvrir un nouvel élément de régulation qui est conservé à travers l'évolution des mammifères. La caractérisation de cet enhancer a démontré qu'il dirige une expression restreinte à l'hypophyse, et plus particulièrement dans les cellules corticotropes. De façon intéressante, l'activité de cet élément dépend d'un nouveau site de liaison recrutant un homodimère du facteur de transcription Tpit, dont l'expression est également limitée aux cellules POMC de l'hypophyse. La découverte de cet enhancer ajoute une toute nouvelle dimension à la régulation de l'expression de POMC. Les cytokines pro-inflammatoires IL6/LIF et les Gc sont connus pour leur antagonisme sur la réaction inflammatoire et sur le promoteur Pomc via l'action des facteurs de transcription Stat3 et GR respectivement. L'analyse génomique des sites liés ii par ces deux facteurs nous a révélé une interrelation complexe et a permis de définir un code transcriptionnel entre ces voies de signalisation. En plus de leur action par interaction directe avec l’ADN au niveau des séquences régulatrices, ces facteurs interagissent directement entre eux avec des résultats transcriptionnels différents. Ainsi, le recrutement de GR par contact protéine:protéine (tethering) sur Stat3 étant lié à l'ADN provoque un antagonisme transcriptionnel. Inversement, le tethering de Stat3 sur GR supporte une action synergique, tout comme leur co-recrutement à l'ADN sur des sites contigus ou composites. Lors d'une activation soutenue, ce synergisme entre les voies IL6/LIF et Gc induit une réponse innée de défense cellulaire. Ainsi lors d'un stress majeur, ce mécanisme de défense est mis en branle dans toutes les cellules et tissus. En somme, les travaux présentés dans cette thèse définissent les mécanismes transcriptionnels engagés dans le combat de l'organisme contre les stress. Plus particulièrement, ces mécanismes ont été décrits au niveau de la réponse globale des corticotropes et du gène Pomc. Il est essentiel pour l'organisme d'induire adéquatement ces mécanismes afin de faire face aux stress et d'éviter des dérèglements comme les maladies inflammatoires et métaboliques.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
La publicité directe des médicaments d’ordonnance (PDMO), interdite au Canada, influence la relation tripartite entre l’industrie pharmaceutique, les consommateurs de médicaments d’ordonnance et les professionnels de la santé. L’industrie pharmaceutique, un secteur très lucratif, emploie diverses tactiques publicitaires dont plusieurs sont nuisibles aux consommateurs. Ces derniers sont la cible de la PDMO et interprètent de multiples façons le message publicitaire reçu. Finalement, les professionnels de la santé jouent un rôle crucial entre l’industrie et les consommateurs puisqu’une ordonnance est nécessaire pour se procurer le produit publicisé. L’encadrement normatif visant la PDMO au Canada est de sources variées. La législation mentionne clairement l’interdiction de ce type de publicité, mais Santé Canada tolère tout de même deux usages relatifs à la PDMO : les annonces de rappel de marque et les annonces de recherche d’aide. Cette situation crée de la confusion puisque l’information transmise aux consommateurs est incomplète. Les Américains ont légalisé la PDMO en favorisant son potentiel éducatif. Il est toutefois difficile de constater les effets positifs de cette légalisation sur la santé publique et l’économie américaine. Au Canada, le médicament Viagra a été l’objet de PDMO, lui conférant un succès économique et populaire. Mais cette notoriété fait que les consommateurs associent aisément le produit à la condition qu’il traite, ce qui est contraire aux usages tolérés par Santé Canada. Tous ces éléments renforcent notre position quant à l’importance de maintenir l’interdiction législative de la PDMO et de l’appliquer de manière plus rigoureuse.
Resumo:
Cette thèse de doctorat présente les résultats d'un relevé spectropolarimétrique visant la détection directe de champs magnétiques dans le vent d'étoiles Wolf-Rayet (WR). Les observations furent entièrement obtenues à partir du spectropolarimètre ESPaDOnS, installé sur le télescope de l'observatoire Canada-France-Hawaii. Ce projet débuta par l'observation d'un étoile très variable de type WN4 appelée EZ CMa = WR6 = HD 50896 et se poursuivit par l'observation de 11 autres étoiles WR de notre galaxie. La méthode analytique utilisée dans cette étude vise à examiner les spectres de polarisation circulaire (Stokes V) et à identifier, au travers des raies d'émission, les signatures spectrales engendrées par la présence de champs magnétiques de type split monopole dans les vents des étoiles observées. Afin de pallier à la présence de polarisation linéaire dans les données de polarisation circulaire, le cross-talk entre les spectres Stokes Q et U et le spectre Stokes V fut modélisé et éliminé avant de procéder à l'analyse magnétique. En somme, aucun champ magnétique n'est détecté de manière significative dans les 12 étoiles observées. Toutefois, une détection marginale est signalée pour les étoiles WR134, WR137 et WR138 puisque quelques-unes de leur raies spectrales semblent indiquer la présence d'une signature magnétique. Pour chacune de ces trois étoiles, la valeur la plus probable du champ magnétique présent dans le vent stellaire est respectivement de B ~ 200, 130 et 80 G. En ce qui concerne les autres étoiles pour lesquelles aucune détection magnétique ne fut obtenue, la limite supérieure moyenne de l'intensité du champ qui pourrait être présent dans les données, sans toutefois être détecté, est évaluée à 500 G. Finalement, les résultats de cette étude ne peuvent confirmer l'origine magnétique des régions d'interaction en co-rotation (CIR) observées chez plusieurs étoiles WR. En effet, aucun champ magnétique n'est détecté de façon convaincante chez les quatre étoiles pour lesquelles la présence de CIR est soupçonnée.
Resumo:
La régulation de l’homéostasie du fer est cruciale chez les bactéries. Chez Salmonella, l’expression des gènes d’acquisition et du métabolisme du fer au moment approprié est importante pour sa survie et sa virulence. Cette régulation est effectuée par la protéine Fur et les petits ARN non codants RfrA et RfrB. Le rôle de ces régulateurs est d’assurer que le niveau de fer soit assez élevé pour la survie et le métabolisme de Salmonella, et assez faible pour éviter l’effet toxique du fer en présence d’oxygène. Les connaissances concernant le rôle de ces régulateurs ont été principalement obtenues par des études chez S. Typhimurium, un sérovar généraliste causant une gastro-entérite chez les humains. Très peu d’informations sont connues sur le rôle de ces régulateurs chez S. Typhi, un sérovar humain-spécifique responsable de la fièvre typhoïde. Le but de cette étude était de déterminer les rôles de Fur, RfrA et RfrB dans l’homéostasie du fer et la virulence de Salmonella, et de démontrer qu’ils ont une implication distincte chez les sérovars Typhi et Typhimurium. Premièrement, Fur, RfrA et RfrB régulent l’homéostasie du fer de Salmonella. Les résultats de cette étude ont démontré que Fur est requis pour la résistance au stress oxydatif et pour une croissance optimale dans différentes conditions in vitro. La sensibilité du mutant fur est due à l’expression des petits ARN RfrA et RfrB, et cette sensibilité est beaucoup plus importante chez S. Typhi que chez S. Typhimurium. Également, Fur inhibe la transcription des gènes codant pour les sidérophores en conditions riches en fer, tandis que les petits ARN RfrA et RfrB semblent être importants pour la production d’entérobactine et de salmochélines chez S. Typhi lors de conditions pauvres en fer. Ensuite, ces régulateurs affectent la virulence de Salmonella. Fur est important pour la motilité de Salmonella, particulièrement chez S. Typhi. Fur est nécessaire pour l’invasion des deux sérovars dans les cellules épithéliales, et pour l’entrée et la survie de S. Typhi dans les macrophages. Chez S. Typhimurium, Fur ne semble pas impliqué dans l’interaction avec les macrophages. De plus, les petits ARN RfrA et RfrB sont importants pour la multiplication intracellulaire de Salmonella dans les macrophages pour les deux sérovars. Finalement, la protéine Fur et les petits ARN RfrA et RfrB régulent l’expression de l’opéron fimbriaire tcf, absent du génome de S. Typhimurium. Un site de liaison putatif de la protéine Fur a été identifié dans la région promotrice de tcfA chez S. Typhi, mais une régulation directe n’a pas été confirmée. L’expression de tcf est induite par le fer et par Fur, et est inhibée par les petits ARN RfrA et RfrB. Ainsi, ces régulateurs affectent des gènes de virulence qui sont retrouvés spécifiquement chez S. Typhi. En somme, ce projet a permis de démontrer que les régulateurs de l’homéostasie du fer de Salmonella peuvent affecter la résistance de cette bactérie pathogène à différents stress, notamment le stress oxydatif, la croissance en conditions de carence en fer ainsi que la virulence. Ces régulateurs jouent un rôle distinct chez les sérovars Typhi et Typhimurium.
Resumo:
Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.
Resumo:
La stimulation électrique directe (SED), pour une heure, améliore la régénération de nerfs périphériques chez le rat après la réparation. Cliniquement, ceci augmenterait le temps opératoire, rehaussant les risques de complications périopératoires. Objectif: Cette étude examine si la stimulation électrique transcutanée (SETC) est aussi efficace à améliorer la régénération de nerfs périphériques que la stimulation électrique directe. Méthode: Le nerf sciatique droit de 28 souris a été axotomisé. Une réparation par microsuture est effectuée. Quatre groupes sont étudiés : (1) sham; (2) suture seulement; (3) suture et SED; (4) suture et SETC. La stimulation est appliquée pour 1 heure à 20 Hz. Les souris sont étudiées pour un total de 12 semaines. La récupération sciatique est évaluée aux semaines 0, 1, 2 et aux 2 semaines par la suite par analyse de démarche sur la poutre. Résultats: La cinématique post-récupération démontre un index fonctionnel sciatique et angle de décollement significativement améliorés pour les groupes SED et SETC aux semaines 8, 10 et 12. Conclusions: 12 semaines après l’axotomie du nerf sciatique, la récupération fonctionnelle est significativement améliorée avec la SED et la SETC. Donc, la SETC est aussi bénéfique pour la promotion de la régénération nerveuse et réinnervation musculaire fonctionnelle que la SED.
Resumo:
Est-il possible de comparer la démocratie au despotisme sans susciter de fâcheux malentendus ? Aristote et Rousseau s’y sont risqués à leurs époques respectives. Le directeur du Lycée distingue ainsi, dans ses Politiques, quatre formes de démocratie dont seule la dernière peut, en toute rigueur, être qualifiée de « directe » et de despotique, parce que le peuple, dirigé par les démagogues, finit par y gouverner sans la loi. Quant à l’écrivain genevois, il ne semble imaginer dans le livre III du Contrat social qu’une seule forme de démocratie, celle qui réunirait entre les mains du peuple assemblé les pouvoirs législatif et exécutif de l’État. Et si pareille démocratie pouvait exister, elle serait pire que le despotisme entendu au sens qu’on lui prête au XVIIIe siècle d’usurpation du pouvoir législatif par le gouvernement, parce qu’elle se traduirait nécessairement par la corruption du Souverain. Il s’agit donc d’étudier les textes et les analogies qu’ils contiennent, afin de voir en quoi la démocratie directe – hypothétique pour Rousseau, mais bien réelle pour Aristote – est tantôt l’analogue de la tyrannie, tantôt le pire des maux que puisse connaître l’État.