965 resultados para Diffusion de la lumière
Resumo:
Cette recherche a pour but d’étudier les pratiques enseignantes de soutien auprès des élèves immigrants récemment arrivés au Québec, ne maîtrisant pas le français et intégrés dans des classes ordinaires au primaire. Pour ce faire, nous avons mené une recherche de type qualitatif avec deux enseignantes et leurs trois élèves immigrantes. Afin de documenter les pratiques de soutien en contexte réel de la classe, comprendre les raisons des enseignantes à l’égard du soutien et le point de vue des élèves, nous avons procédé à des observations de classe et à des entrevues individuelles générales et spécifiques avec les participantes, en plus de consulter certaines productions écrites des élèves immigrantes participantes. La présentation des données prend la forme d’une étude multicas décrivant les pratiques de soutien mises en place par chacune des deux enseignantes à partir de 22 séquences de soutien qui ont été décrites en tenant compte du contexte de chaque classe, puis analysées à la lumière de deux cadres théoriques complémentaires, le cadre d’analyse du travail enseignant et l’approche sociohistorico-culturelle. Les résultats de cette recherche mettent en exergue le sens de la pratique enseignante de soutien qui se coconstruit dans les interactions entre l’enseignante et l’élève, selon leurs apports mutuels, et selon les facteurs de la classe. L’analyse des raisons des enseignantes à l’égard du soutien montre que devant les difficultés des élèves immigrantes anticipées, constatées ou signalées, les enseignantes prennent des décisions pour prendre ces difficultés en considération, les traiter et mettre en place des pratiques de soutien. Les décisions des enseignantes découlent d’un processus de négociation interne entre la prise en compte des difficultés, notamment imprévues, et le maintien de leurs tâches prescrites, tout en considérant les facteurs contextuels de la classe. Le processus de négociation se poursuit et se déplace ensuite entre l’enseignante et l’élève, lesquelles construisent le sens de soutien à travers leurs interactions. Les concepts empruntés de l’approche sociohistorico-culturelle nous permettent de comprendre la relation dialectique entre l’élève et l’enseignante lors des interactions. Les deux s’ajustent l’une par rapport à l’autre dans le but d’arriver à un consensus sur le sens de la difficulté. De ce fait, la pratique enseignante de soutien est construite suite aux négociations entre l’élève et l’enseignante, mais aussi suite à la négociation interne de l’enseignante, et ce, dépendamment des facteurs du contexte. Notre recherche a contribué à apporter cette clarification sur la manière d’appréhender les pratiques enseignantes de soutien en contexte de classe ordinaire.
Resumo:
Cette thèse théorique porte sur la psychothérapie et en particulier sur deux formes - la psychanalyse et la thérapie brève de l'école de Palo Alto - qu'elle entend examiner dans le cadre de débats portant principalement sur les efforts métathéoriques pour penser la modernité, la postmodernité et les phénomènes qui les accompagnent: rationalisation, individualisation, scepticisme ou relativisme cognitif et moral. Il est proposé que la psychothérapie puisse être considérée, au-delà de ce qui a été dit sur le caractère essentiellement narcissique de cette pratique, comme une contribution à l’émancipation sociale en favorisant le développement moral des personnes. Il s’agit ici de montrer que l’on peut faire une autre lecture de cette réalité, et ce à l’aide de ressources fournies par la tradition sociologique. Ce développement moral des personnes serait favorisé par un fonctionnement autoréflexif et des compétences communicationnelles, ces dernières traduisant, dans la pensée d’Habermas, la conscience morale. Mais pour qu’il y ait fonctionnement autoréflexif, il faut pouvoir accepter une capacité à connaître, à se connaître, ce que n’admettent pas d’emblée les thérapies influencées par le postmodernisme. Or l’examen des discours tenus par les praticiens eux-mêmes sur leurs pratiques révèle une influence du postmodernisme, que ce soit sous la forme du constructivisme, du constructionnisme social ou plus généralement d’un certain scepticisme et d’un refus concomitant de l'expertise et de l'autorité, une situation paradoxale pour une pratique professionnelle. Les deux formes de thérapies retenues censées représenter les deux pôles de l'intervention thérapeutique - le pôle technique, stratégique et le pôle expressiviste, communicationnel – sont examinées à la lumière de propositions mises de l’avant par Habermas, notamment sur les rationalités stratégique et communicationnelle ainsi que la situation idéale de parole. La psychothérapie apparait ici comme une contribution inestimable à une rationalisation du monde vécu. Forte d’un approfondissement des notions de modernité et de postmodernisme, l’exploration se poursuit avec une critique détaillée d’ouvrages de Foucault portant sur les pratiques disciplinaires, la grande objection à concevoir les psychothérapies comme émancipatrices. La thèse tend à démontrer que ces analyses ne reflètent plus une situation contemporaine. Enfin, la thèse examine le débat entre Habermas et Foucault sous l'angle des rapports critique-pouvoir : si le savoir est toujours le produit de rapports de pouvoir et s’il a toujours des effets de pouvoir, comment peut-il prétendre être critique ? Il en ressort que l'œuvre d’Habermas, en plus de posséder beaucoup plus d'attributs susceptibles d'appuyer la problématique, offre une théorisation plus équilibrée, plus nuancée des gains liés à la modernité, tandis que Foucault, outre qu'il n'offre aucun espoir de progrès ou gains en rationalité, nous lègue une conception du pouvoir à la fois plus réaliste (il est imbriqué dans toute communication et toute interaction), mais plus fataliste, sans possibilité de rédemption par le savoir. La thèse se conclut par un retour sur la notion d’individualisme avec L. Dumont, Lipovetsky, Taylor, ainsi que Bellah et al. pour discuter des phénomènes sociaux liés, pour certains critiques, à l’existence des psychothérapies, notamment l’instrumentalité des relations.
Resumo:
Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option cheminement avec stage en intervention
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
Ce cahier de recherche fait état des travaux menés au cours de la deuxième étape (2014-2015) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Les textes sont les suivants : Yvon Lemay et Anne Klein, « Préface », p. 4-5; Yvon Lemay, « Deuxième cahier de recherche : présentation », p. 6-26; Érika Nimis, « Combler les silences de l’histoire africaine. Ou comment des artistes visuels s’approprient des archives photographiques pour éclairer le passé à la lumière du présent », p. 27-42; Hélène Brousseau, « L'utilisation d’archives dans les arts visuels : dialogue entre une artiste et une archiviste », p. 43-58; Simon Côté-Lapointe, « Créer à partir d’archives : bilan, démarches et techniques d’un projet exploratoire », p. 59-95; Annaëlle Winand, « Le concept d’archive(s) et les films de réemploi », p. 96-111; Nicolas Bednarz et Céline Widmer, « Archives au pluriel : le Montréal de 1914-1918. L’expérience d’une création collaborative et multidisciplinaire », p. 112-142; Mattia Scarpulla, « La mémoire performative. Considérations sur les traces de la danse et les dispositifs de capture des mouvements », p. 143-173; Yvon Lemay et Anne Klein, « Quartiers disparus : l’envers du décor », p. 174-190. De plus, le cahier comprend une « Bibliographie » des travaux effectués sur les archives et la création depuis 2007, p. 191-196, et des informations sur « Les auteurs », p. 197.
Resumo:
INTRODUCTION: Le bleu de méthylène est un colorant grandement utilisé dans le domaine médical, notamment pour ses propriétés de coloration histologique. Il est également utilisé comme agent photosensibilisant dans la thérapie photodynamique antimicrobienne, qui une fois photoactivé devient efficace pour l’éradication de plusieurs germes multirésistants. L’objectif de cette étude est d’investiguer le potentiel ototoxique du bleu de méthylène. MÉTHODES: Vingt cochons d’Inde divisés en deux groupes, ont reçu une solution de bleu de méthylène et de gentamicine dans l’oreille testée. L’oreille controlatérale a reçu une solution saline contrôle. Nous avons procédés à des potentiels évoqués auditifs du tronc cérébral avant et une semaine suivant la série d’injections. À la suite des dissections, des analyses histologiques et immunohistochimiques ont été réalisées. RÉSULTATS: La différence moyenne de perte auditive dans le groupe gentamicine comparativement au groupe normal salin était de 66.25 dB (p<0.001). Toutefois, la différence moyenne de perte auditive dans le groupe ayant reçu du bleu de méthylène comparativement à celui ayant reçu des injections de la solution saline était de 1.50 dB, et n’a pas été démontré comme étant statistiquement significative (p=0.688). De plus, la captation de caspase-3 en immunohistochimie (marqueur d’apoptose) n’a pas été significative dans le groupe recevant le bleu de méthylène. CONCLUSION: À la lumière de nos résultats, les injections intratympaniques de bleu de méthylène n’ont pas démontrées de potentiel ototoxique. Nous recommandons des études supplémentaires afin d’en préciser son utilisation sécuritaire dans le domaine otologique.
Resumo:
L’« appropriation » par les pays en développement (PED) de leurs processus de développement forme la clef de voûte de la nouvelle approche de l’aide et de la coopération au développement telle que promue par la Déclaration de Paris (2005). Si ce passage vers l’« appropriation » vise à installer les PED « dans le siège du conducteur », il reste tout de même inscrit dans une relation d’aide. Or, la Déclaration de Paris pose cette « appropriation » comme le résultat d’un consensus et comme un principe devant être mis en oeuvre sur un terrain vierge via une série de mesures techniques préoccupées par une efficacité ou plutôt une efficience de l’aide. En s’intéressant à la perspective d’acteurs sociaux nationaux quant à cette question de l’ « appropriation » à partir d’une étude de cas c’est-à-dire d’un contexte précis, ici celui du Rwanda, cette thèse vise à démontrer que l’agenda et les politiques en matière de développement, dont la question de l’ « appropriation », ne peuvent être saisis dans un vide contextuel. En effet, ce que met en évidence la perspective des acteurs sociaux nationaux au Rwanda quant à cette question de l’ « appropriation », c’est leur réinscription de cette question dans le contexte du Rwanda post-génocide et dépendant de l’aide, et leur appréhension de celle-ci à partir de ce contexte. Ce contexte informe le récit de ces acteurs qui met en sens et en forme cette « appropriation ». Leur saisie de l’ « appropriation » se bâtit autour d’un double impératif dans le contexte du Rwanda post-génocide, un impératif d’une part de reconstruction socio-économique et d’autre part d’édification d’une nation, et ce, à la lumière des tensions ‘ethniques’ qui traversent et structurent historiquement l’espace politique et social rwandais et qui ont donné lieu au génocide de 1994.
Resumo:
Éditorial du 27 février 2015
Resumo:
En année 408 après J.-C., l’Espagne, malgré sa position péninsulaire à la fin de l’Europe, était intégrée à une culture pan-Méditerranéenne qui s’étendait du Portugal jusqu’à la Syrie. Trois décennies n’étaient pas encore passées depuis l’instauration du Christianisme comme religion de l’état romain et l’Eglise Catholique était en pleine croissance. L’année suivante, l’Espagne entra sur une voie de transformation irrémédiable alors que les païens, avec leurs langues barbares Germaniques franchirent les Pyrénées portant la guerre et la misère aux Hispano-Romains et fondant leurs royaumes là où auparavant gouvernait l’état romain. Dans le désarroi du Ve siècle, les évêques Catholiques luttèrent pour imposer leur dominance dans les communautés et dans les coeurs des pieux. À la lumière des progrès dans l’archéologie et la qualité des éditions critiques de nos sources littéraires est venu le moment d’identifier les évêques ibériques avec une attention aux conditions régionales. Ce mémoire caractérise les évêques de l’Espagne et du Portugal et démontre les épreuves auxquelles ils firent face comme intermédiaires entre indigènes et envahisseurs, comme évangélistes parmi les païens, persécuteurs des apostates et gardiens de la romanitas à la fin du monde Antique.
Resumo:
Cette étude a pour but d'examiner l'évolution du locus de contrôle en fonction du traitement ainsi que la relation de cette variable avec la productivité chez un groupe de militaires alcooliques. Trente-six militaires anglophones de sexe masculin ont rempli l'échelle de locus de contrôle I-E de Rotter (1966) et le questionnaire de propension à l'alcoolisme MAST-10 de Selzer (1971) dans les 48 heures suivant le début et précédant la fin du traitement de même que trois mois après la fin de la clinique. Les superviseurs ont évalué la productivité au travail des sujets durant les trois mois précédant le traitement et pendant les trois mois suivant la fin de la clinique par le biais d'une échelle de type Likert. Les résultats indiquent que les sujets sont plus internes et productifs à la suite du traitement, et ce, indépendamment du score au MAST-10. Par ailleurs, une corrélation non significative a été obtenue entre les scores à l'échelle I-E et la productivité. Ces résultats sont discutés à la lumière des recherches antérieures traitant du changement dans le locus de contrôle chez des alcooliques réadaptés.
Resumo:
La présente étude vise à explorer l’univers de la cohabitation entre les activités prostitutionnelles de rue et résidentielles du quartier Hochelaga-Maisonneuve. Précisément, elle s’attarde aux effets d’une telle pratique sur l’environnement du secteur résidentiel. Ancrée dans une perspective constructiviste, l’étude s’attarde aux discours de 35 acteurs-clés qui relatent leurs expériences de cohabitation. Ces acteurs sont des commerçants, des résidents du secteur, des intervenants de proximité ainsi que des travailleuses du sexe. À travers l’analyse d’entretiens et d’une centaine d’heures d’observations sur le terrain avec des agents du service de police de Montréal, l’étude expose les enjeux en matière de cohabitation, introduit l’idée d’une tolérance négociée et dresse un portrait de la narcoprostitution de rue, spécifique au quartier Hochelaga-Maisonneuve. À la lumière des résultats, on constate qu’il est difficile de dissocier les activités prostitutionnelles, des habitudes de toxicomanie. Précisément, la prostitution de rue, la présence de cracks house dans le secteur, la consommation et l’intoxication d’individus sur les voies publiques ainsi que l’attroupement de personnes au mode de vie underground sont tous des éléments, bien souvent inter-reliés, présentés par les acteurs interrogés. L’étude met en lumière les effets qu’ont ces éléments sur l’environnement résidentiel du quartier.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
L’herméneutique de Gadamer s’inscrit-elle dans la foulée de la critique heideggérienne de la métaphysique ? Devrait-on, par surcroit, la considérer comme une forme de nihilisme, où l’être serait réduit au langage et partant, à la pluralité des interprétations ? La présente étude vise plutôt à montrer, sous la conduite des indications de Gadamer lui-même, qu’il est impératif de reconnaître à son maître-ouvrage une dimension métaphysique certaine et cruciale et dont la portée consiste précisément à s’opposer aux interprétations nihiliste et nominaliste de notre rapport à l’être. Pour ce faire il sera d’abord établi que le concept d’appartenance (Zugehörigkeit) est le maître-concept de Vérité et méthode, comme l’avait vu Ricoeur, puis comment Gadamer rattache explicitement celui-ci à la métaphysique médiévale des transcendantaux, métaphysique qui demeure visible jusque dans les dernières conclusions de l’ouvrage qui traitent de la métaphysique de la lumière (Lichtmetaphysik). Nous verrons que c’est précisément à la lumière de cette proximité constante avec la métaphysique des transcendantaux qu’il faut comprendre la thèse de Gadamer à l’effet que l’être susceptible d’être compris est langage, de manière à y voir une affirmation soutenue de l’intelligibilité de l’être, comme l’avait d’ailleurs saisi Heidegger lui-même. Notre intention est ainsi de rendre perceptibles les sources et le cadre de cette métaphysique des transcendantaux, qui ont été négligés dans la réception de Gadamer. Nous porterons donc notre regard sur les sources médiévales de sa pensée que Gadamer connaît et commente, soit Thomas d’Aquin et Nicolas de Cues, mais aussi sur des auteurs moins connus de la tradition herméneutique, dont Philippe le Chancelier, auteur indispensable lorsqu’il s’agit de traiter de la métaphysique des transcendantaux à laquelle Gadamer se réfère. Cette enquête nous amènera à démontrer comment l’herméneutique de Gadamer s’inscrit dans la conception traditionnelle de la vérité comme adaequatio rei et intellectus, définition dont nous devons surtout à Thomas de l’avoir léguée à la postérité mais qu’ont aussi reprise les modernes, incluant Kant et Heidegger. C’est ainsi une nouvelle lecture du rapport de Gadamer à son maître Heidegger et à sa critique de la métaphysique qui résultera de cette archéologie des sources métaphysiques du concept d’appartenance ; il sera en effet démontré que l’héritage de Gadamer est à comprendre, de son propre aveu, en continuité et non en rupture avec la métaphysique. Enfin, fidèle à l’esprit herméneutique de l’application, nous éprouverons cette compréhension renouvelée du concept d’appartenance à l’aune d’une discussion de nature plus théologique, de manière à jeter un éclairage nouveau sur la fécondité de l’herméneutique gadamérienne dans le contexte de la théologie moderne. C’est ainsi que le concept de foi, compris habituellement dans le cadre imposé par la métaphysique moderne de la subjectivité qui le réduit à une « croyance » ou à un « choix personnel », sera mis à l’épreuve du tournant ontologique pris par l’herméneutique avec Gadamer et qui incite à dépasser la dichotomie entre le sujet et son objet en pensant le sujet à partir de l’être. C’est une compréhension de la foi comme appartenance, au sens précis que Gadamer donne à ce concept, qui sera ici mise au jour.