257 resultados para Gilles Vigneault
Resumo:
Les immigrants à Montréal (Québec, Canada) connaissent des difficultés d’insertion en emploi. Parmi eux, ceux originaires de l’Afrique subsaharienne constituent des «groupes racisés» et, à ce titre, sont susceptibles d’éprouver davantage de discriminations et de difficultés que les autres (Hadiri, 2008; Nikuze, 2011). Grâce à une sociologie des "trajectoires de réussites" et grâce à des questions mobilisant l'apport de plusieurs disciplines dans une perspective de résolution de problèmes pratiques, cette thèse a pour but de proposer de possibles solutions aux différents problèmes de ces immigrants montréalais. La recherche de terrain, basée sur des entretiens compréhensifs au sens où l’entend Kaufmann (1996, 2008), propose une sociologie qualitative des "trajectoires de réussites", soit des expériences socioprofessionnelles vécues comme « valorisantes » ou « valorisées. » L’échantillon a été formé d’immigrants africains vivant de telles expériences. À travers leurs différentes trajectoires, la recherche a reposé sur cet objectif appliqué premier : partir du questionnement central sur les facteurs de réussite, rechercher des solutions et des instruments d'intervention destinés à une meilleure intégration socioéconomique des nouveaux immigrants, ou même des anciens immigrants qui connaissent encore des difficultés d’insertion en emploi. Les résultats laissent entrevoir trois catégories de facteurs contributifs à la base de la «réussite socioprofessionnelle», tous rangés au titre de « valeurs », ou façons de voir le monde capables de contribuer à cette « réussite » en s’harmonisant mieux au contexte québécois : il s’agit de valeurs personnelles, d’apports socioculturels africains ou encore de ressources socioculturelles de type québécois. Si les valeurs personnelles relèvent des caractéristiques propres à chacun, les ressources socioculturelles africaines et québécoises résulteraient plutôt de traditions ou de mœurs inhérentes aux cultures des pays concernés. L’analyse et l’interprétation de ces facteurs propices à l’intégration socioprofessionnelle des immigrants ont révélé plusieurs pistes capables de faciliter l’insertion en emploi des immigrants et cette thèse en fait état. Il demeure certain, face à des résultats qui mettent en évidence surtout le facteur individuel, que la « réussite » et l’insertion « réussie » ou vécue comme telle demeurent aussi fonction des actes des autorités publiques : quelles que soient les valeurs et les dispositions individuelles des immigrants, ces facteurs positifs demeurent sans effets si lois et politiques du domaine de l’immigration font obstacle de quelque façon.
Resumo:
L’encadrement légal particulier de la négociation collective impliquant les pompiers municipaux québécois, malgré sa soumission à certaines règles prévues par le régime général du Code du travail, présente des spécificités qui pourraient en affecter l’efficacité et ainsi contribuer à l’instauration de relations de travail difficiles. Ce mémoire s’attarde aux difficultés associées à ce régime de négociation collective interdisant le recours à la grève et prévoyant son remplacement par un système d’arbitrage obligatoire. L’étude des relations de travail impliquant les pompiers de Montréal ne permet pas, à elle seule, de qualifier ce régime particulier de négociation collective d’alternative inefficace au régime général. Toutefois, ce mémoire met en évidence les limites d’un cadre légal, alors que des facteurs externes au droit, tels que le caractère public de l’employeur et la nature particulière du métier, semblent jouer un rôle déterminant dans la dynamique conflictuelle des relations de travail impliquant des pompiers municipaux.
Resumo:
Objective: Cognitive-behavioural therapy (CBT) has proved effective in treating delusions, both in schizophrenia and delusional disorder (DD). Clinical trials of DD have mostly compared CBT with either treatment as usual, no treatment, or a wait-list control. This current study aimed to assess patients with DD who received CBT, compared with an attention placebo control (APC) group. Method: Twenty-four individuals with DD were randomly allocated into either CBT or APC groups for a 24-week treatment period. Patients were diagnosed on the basis of structured clinical interviews for mental disorders and the Maudsley Assessment of Delusion Schedule (MADS). Results: Completers in both groups (n = 11 for CBT; n = 6 for APC) showed clinical improvement on the MADS dimensions of Strength of Conviction, Insight, Preoccupation, Systematization, Affect Relating to Belief, Belief Maintenance Factors, and Idiosyncrasy of Belief. Conclusion: When compared with APC, CBT produced more impact on the MADS dimensions for Affect Relating to Belief, Strength of Conviction, and Positive Actions on Beliefs.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
S’inscrivant parmi les travaux actuels sur le lieu, le présent mémoire s'intéresse à la représentation de la maison dans les romans québécois contemporains, notamment chez Catherine Mavrikakis, Élise Turcotte et Ying Chen. Dans le cadre de cette lecture sociocritique, le sociogramme de la Maison est la notion opératoire retenue, les deux composantes conflictuelles du noyau étant le « Home sweet home » et la « maison hantée ». Le travail de déchiffrement s'appuie ainsi sur les caractéristiques de ce binôme réfractées par les textes. À une époque caractérisée par un « hyper-investissement de l'espace privé », pour reprendre l'expression de Gilles Deleuze, la maison dans les romans québécois des années 2000 se révèle plutôt comme un espace marqué par la hantise, loin de l'image rassurante de la maison-nid véhiculée par certains discours en circulation dans la société. Fantômes et spectres envahissent ce lieu de l'intimité et deviennent des figures du quotidien, révélant ainsi le profond malaise des habitants et le refoulement d'un passé problématique. Le sujet se trouve alors confronté à une « inquiétante étrangeté » à l'intérieur même de son foyer.
Resumo:
La pagination de cette version (p.105-123) est différente de celle du document original (p.91-107).
Resumo:
Ce texte de mémoire est accompagné du webdocumentaire interactif : De la chaise à la mer, disponible à l'adresse http://www.delachaisealamer.net.
Resumo:
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.
Resumo:
La pensée de Nietzsche a joué un rôle déterminant et récurrent dans les discours et les débats qui ont formé et continuent de façonner le domaine de l’histoire de l’art, mais aucune analyse systématique de cette question n’a encore vu le jour. L’influence de Nietzsche a été médiée par divers interlocuteurs, historiens de l’art et philosophes, qui ont encadré ces discussions, en utilisant les écrits du philosophe comme toile de fond de leurs propres idées. Ce mémoire souhaite démontrer que l’impact de Nietzsche dans le champ de l’histoire de l’art existe mais qu’il fut toujours immergé ou éclipsé, particulièrement dans le contexte anglo-américain, l’emphase étant placée sur les médiateurs de ses idées en n’avouant que très peu d’engagement direct avec son œuvre. En conséquence, son importance généalogique pour certains fondateurs de la discipline reste méconnue; sa présence réellement féconde se traduit plutôt comme une absence ou une présence masquée. En vue de démontrer ce propos, nous regardons donc le contexte nietzschéen qui travaille les écrits de certains historiens de l’art, comme Jacob Burckhardt et Aby Warburg, ou des philosophes et d’écrivains ayant marqué la discipline de l’histoire de l’art (plus particulièrement dans le cadre de l’influence de la « French Theory » sur l’histoire de l’art anglo-américaine depuis la fin des années 1970) : Martin Heidegger, Michel Foucault, Jacques Derrida, Gilles Deleuze et Georges Bataille. Nous examinons certaines voies par lesquelles ses idées ont acquis une pertinence pour l’histoire de l’art avant de proposer les raisons potentielles de leur occlusion ultérieure. Nous étudions donc l’évolution des discours multiples de l’histoire comme domaine d’étude afin de situer la contribution du philosophe et de cerner où et comment ses réflexions ont croisé celles des historiens de l’art qui ont soit élargi ou redéfini les méthodes et les structures d’analyse de leur discipline. Ensuite nous regardons « l’art » de Nietzsche en le comparant avec « l’art de l’histoire de l’art » (Preziosi 2009) afin d’évaluer si ces deux expressions peuvent se rejoindre ou s’il y a fondamentalement une incompatibilité entre les deux, laquelle pourrait justifier ou éclairer la distance entre la pensée nietzschéenne sur l’art et la discipline de l’histoire de l’art telle qu’elle s’institutionnalise au moment où le philosophe rédige son œuvre.
Resumo:
En chirurgie vasculaire, l’accès à l’artère fémorale, qu’il soit par une incision chirurgicale ou par une approche percutanée, est très fréquemment utilisé pour une multitude d’interventions vasculaires ou endovasculaires; pour des pontages divers, le traitement d’occlusions artérielles, la réparation d’anévrismes et la pose d’endoprothèses. L’objectif général de ce projet de recherche est de faciliter et réduire les risques des approches de l’artère fémorale par une meilleure compréhension anatomique du triangle fémoral. La méthodologie a été réalisée grâce à l’utilisation de cadavres spécialement embaumés par la méthode développée par Walter Thiel. Les résultats présentés dans ce mémoire ont permis de proposer des solutions en réponse à des problèmes cliniques en chirurgie vasculaire. Dans un premier temps, l’étude de la vascularisation cutanée du triangle fémoral a mené à proposer de nouvelles incisions chirurgicales afin de limiter la dévascularisation cutanée des plaies et ainsi réduire les problèmes de cicatrisation observés. Ensuite, nous avons validé l’identification radiographique et échographique de l’artère fémorale à son croisement avec le ligament inguinal afin de faciliter l’identification d’un site de ponction artérielle adéquat. Enfin, nous avons développé une méthode échographique simple qui facilite l’approche percutanée de l’artère fémorale, même chez les patients obèses. Les retombées de ce projet de recherche sont multiples pour les cliniciens, l’étude fournit une meilleure compréhension anatomique tridimensionnelle du triangle fémoral et les techniques proposées dans ce mémoire pourront apporter une amélioration de la pratique chirurgicale et faciliter le travail des médecins. Toutefois, ces propositions devront maintenant être validées en clinique.
Resumo:
Les transformations que subit graduellement la page littéraire du Devoir, au début des années 1950, contribuent à réaménager le champ littéraire. Sous la responsabilité de Gilles Marcotte, ces changements s’effectuent en trois temps : d’abord, un espace accru est consacré aux auteurs québécois et à la critique de leurs oeuvres ; ensuite, la littérature se trouve inscrite dans la matérialité de la vie culturelle ; enfin, une prééminence est accordée à la poésie, qui devient le genre littéraire par excellence. Aussi, lorsque sont fondées les Éditions de l’Hexagone la poésie s’installe-t-elle sur la place publique.
Resumo:
Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.
Resumo:
Les antibiotiques sont fréquemment utilisés dans l’alimentation de la volaille afin de prévenir certaines maladies, dont l’entérite nécrotique, ce qui occasionne l’émergence de souches bactériennes résistantes aux antibiotiques. Une alternative prometteuse est l’utilisation de peptides antimicrobiens (AMPs) comme suppléments alimentaires, tels les AMPs provenant des produits laitiers. L’objectif du projet était de développer une méthode de production d’extraits peptidiques à partir de coproduits de la transformation alimentaire (babeurre, lactoferrine, isolat de protéines de pois), afin de tester si ces extraits peptidiques possédaient une activité antimicrobienne sur les pathogènes spécifiques aviaires suivants : Salmonella Enteritidis, Salmonella Typhimurium, Escherichia coli et Staphylococcus aureus. Les protéines ont été mises en suspension dans l’eau (5% p/p) et hydrolysées par la pepsine, 6 heures, pH de 2.5. Les peptides furent récupérés par ultrafiltration (< 10 kDa), puis fractionnés selon leur charge nette : totaux, cationiques, anioniques et non liés. L’effet antimicrobien a été évalué surmicroplaques, par la survie bactérienne en présence de concentrations croissantes d’extraits peptidiques. Les extraits cationiques de babeurre ont démontré une efficacité à une concentration inférieure ou égale à 5 mg/mL; perte de 3 log pour Escherichia coli O78 :H80. En comparaison, la lactoferrine cationique a été efficace à une concentration inférieure ou égale à 0.6 mg/mL; perte de 6 log pour E. coli O78 :H80. Les extraits peptidiques du pois ont démontré une efficacité faible. Cette méthode s’avère prometteuse pour le développement d’une alternative ou d’un complément pour la réduction de l’utilisation des antibiotiques dans l’alimentation de la volaille.