227 resultados para Trop-perçus
Resumo:
Avec ce mémoire, j’ai souhaité cerner ce qui serait le propre d’une conversion, soit ce que j’ai appelé un processus de trans-formation. Avec ce concept original, j’ai voulu orienter le regard de l’observateur vers les points de basculement de l’intimité à la publicité qui caractérisent les conversions. Pour ce faire, il m’est apparu fertile de mobiliser et de réhabiliter l’étude des valeurs, un thème classique en sociologie. Des valeurs portées par des individus aux valeurs publiques, la notion de « valeur » recèle le potentiel heuristique nécessaire pour étudier les conversions à différentes échelles d’analyse et par-delà des qualifications a priori religieuses, politiques, sexuelles, etc. Avec cette perspective théorique pragmatique inspirée par Dewey et articulée à la sensibilité aux positions sociales des cultural studies, je me suis donné les moyens d’analyser la façon dont change au cours d’une vie ce à quoi les gens tiennent. Cette représentation dynamique de la conversion vient ajouter des éléments de compréhension à un phénomène trop souvent appréhendé à la lumière de « lectures préférées » modernes et coloniales qui demandaient à être subverties pour redonner place à l’exercice de l’imagination sociologique. Les apports du concept de trans-formation sont illustrés à partir de la comparaison de quatre études de cas individuels : Paul Claudel, un écrivain converti au catholicisme ; Michelle Blanc, une transsexuelle québécoise ; Joe Loya, un Mexican American qui modifie ses conceptions du bien et du mal en isolement carcéral ; et Mlle Pigut qui est devenue « vegan ».
Resumo:
L'écotourisme est souvent perçu comme une panacée capable de concilier le développement économique, la protection de l'environnement et le bien-être des communautés autour des aires protégées des pays en développement. La réalité sur le terrain est cependant tout autre, car son caractère complexe, politique et transcalaire est trop souvent négligé lors de la mise en œuvre des interventions. Le but de ce projet de recherche est de jeter un nouvel éclairage sur le développement de l'écotourisme dans les aires protégées des pays du Sud à travers une analyse critique des pratiques et des discours qui lui sont associés. Adoptant un cadre conceptuel dérivé de l'écologie politique, nous avons cherché à comprendre comment l'écotourisme affecte l'accès aux ressources naturelles pour différents acteurs sociaux. L'approche méthodologique s'appuie sur une étude de cas essentiellement qualitative qui s'attarde à un projet spécifique amorcé à Chi Phat, dans une forêt protégée des Cardamomes, au sud-ouest du Cambodge. Elle fait appel à l'analyse documentaire et discursive, à l'observation participante ainsi qu'à plus de 80 entretiens semi-directifs auprès d'acteurs clés. Nos résultats montrent d'abord qu'en matière d'écotourisme au Cambodge, il y a absence de lignes directrices claires et on observe très peu de collaboration, et ce, à tous les niveaux. Cela n'est pas étranger au fait que le gouvernement actuel accorde en général la priorité au développement devant la conservation. Ensuite, le projet d'écotourisme permet à Wildlife Alliance de justifier le maintien de la forêt protégée. Cette ONG se démarque par ailleurs des autres organisations au pays par son approche plus musclée. Le pouvoir dont elle jouit et les résultats qu'elle obtient sur le terrain tiennent en sa capacité à mobiliser, en temps opportun, l'ensemble des moyens disponibles pour contrôler l'accès. Globalement, nous pouvons affirmer que les principaux acteurs qui voient leur accès aux ressources naturelles touché négativement sont les paysans. Finalement, nous proposons deux ajouts au cadre conceptuel, soit la considération de l'aspect géographique de l'exclusion et l'introduction de modalités d'exclusion, qui permettent à notre avis une analyse plus juste de la situation.
Resumo:
Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».
Resumo:
L’étude présentée dans ce mémoire concerne ce qui amène les jeunes adultes (18-25 ans) à afficher certains éléments et pas d’autres, sur Facebook, en relation avec leur conception personnelle de la vie privée. J’aborde ce processus en mobilisant les notions de présentation de soi, de relations en public et, plus particulièrement, de territoires du moi élaborées par le sociologue Erving Goffman (1973). Les territoires du moi sont ici perçus comme ce qui appartient à l’individu de manière privée et qu’il souhaite protéger. Ces notions de la pensée de Goffman sont pour moi interdépendantes puisque les territoires du moi d’une personne sont influencés à la fois par le rôle que la personne tient ainsi que par les normes et les règles encadrant l'interaction. Cette étude a été réalisée auprès de huit jeunes adultes âgés entre 18 et 25 ans. Une entrevue individuelle a été faite avec chacun d’entre eux. Lors de celle-ci, les participants avaient à présenter leur compte Facebook. Je les invitais, par exemple, à me raconter ce qui les motivait à afficher certaines choses, qui sont les personnes qui peuvent voir ces choses et, à l’inverse, ce qui n’a pas sa place sur la page Facebook et qui sont les personnes qui ne peuvent pas voir certaines publications. Suite à ce terrain, les analyses mettent en lumière sept dimensions s’inscrivant dans la pensée de Goffman qui dessinent la protection de ce que l’on pourrait nommer la vie privée. Il y a Se voir à travers le regard de l’autre et s’en inquiéter, Projeter une image de soi positive, Les amis Facebook : jamais nous n’avons eu autant d’amis, Flirt, relation de couple et cœur brisé : les relations amoureuses et Facebook, Avoir plusieurs rôles sur une même plateforme : la famille n’a souvent pas sa place, Gérer les paramètres de Facebook n’est pas si simple et Évolution de l’usage de Facebook : une question d’âge et un apprentissage. La plupart d’entre elles ont, pour ligne directrice, le regard de l’autre puisque l’inquiétude vis-à-vis celui-ci vient très souvent nuancer le choix de publications des usagés.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.
Resumo:
RÉSUMÉ La ruse féminine, étudiée en regard de la littérature narrative médiévale, constitue une topique spontanément associée à une idéologie misogyne. Les itérations des motifs liés à cette topique foisonnent dans le Roman de Silence et dans les fabliaux également copiés dans le manuscrit de Nottingham. Étant donné la place prépondérante du travestissement dans le Roman de Silence, ce texte a été abondamment étudié sous l’angle des Gender Studies. Toutefois, le travestissement endossé ou orchestré par des figures féminines est compris dans un ensemble de motifs liés à la ruse féminine. Cette dernière fait l’objet de nombreux commentaires de la part des narrateurs et des personnages du corpus. Or il arrive parfois que ces commentaires, sous des dehors désapprobateurs, mettent en lumière la puissance de la ruse féminine. Qui plus est, d’un point de vue narratologique, la réussite ou l’échec de ces ruses ont été étudiés, dans un corpus où le ton se fait souvent didactique, pour établir si celles-ci tenaient lieu d’exemples ou de contre-exemples. Avant d’analyser l’énonciation, les motifs de la ruse féminine ont été étudiés en regard des hypotextes qu’ils évoquaient, et ce, tout en postulant l’interlisibilité des textes d’un même manuscrit. Il a donc été possible de déterminer dans quelle mesure le corpus désamorçait ces motifs, créant des situations souvent ironiques signalant au lecteur de ne pas s’aventurer trop crédulement dans les textes, et d’être attentif autant à l’ironie de situation qu’à celle qui s’ancre dans la situation d’énonciation.
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Ce projet de maîtrise porte sur l’interaction entre les acteurs locaux liés à la musique populaire et l’administration publique dans le cadre du projet public-privé de réaménagement du port de Rio de Janeiro intitulé Porto Maravilha. Le travail de recherche s’est axé sur l’idée que cette interaction serait essentiellement fondée sur la façon dont la “culture” est comprise et utilisée comme ressource capable d’ajouter de la valeur à l’espace urbain, différencier les groupes entre eux et apporter une sustentation au processus d’autonomisation et de légitimation des acteurs. De nouveaux paradigmes urbanistiques, tel celui de “ville créative” (Landry, 2005), proposent d’intégrer la culture locale dans l’élaboration et l’exécution des projets avec la participation d’artistes qui sont perçus comme une source de créativité fondamentale pour rendre la ville plus compétitive dans un monde devenu de plus en plus urbain. Dans cette veine, le projet Porto Maravilha s’inspire franchement des cas de succès de rénovation urbaine créative, stimulant la culture locale et idéalisant le port de Rio comme une “nouvelle carte postale du Brésil”. En partant de la constatation que les acteurs sociaux locaux identifient le potentiel de leurs activités culturelles comme une ressource importante dans ce contexte, nous analysons tout autant les stratégies et les discours élaborés que les ressources dont ils disposent afin d’affirmer leur agentivité. Au-delà de l’action intentionnelle, nous effectuons également des analyses de leurs pratiques culturelles au quotidien en recherchant les éléments qui les constituent. Nous questionnons, par ailleurs, la manière avec laquelle les administrateurs du projet comprennent ces activités musicales et comment ils gèrent les demandes sociales et les contributions créatives de ces groupes.
Resumo:
Si la littérature est rarement considérée comme une science, comme vraie, comme créatrice d’un savoir, toujours un peu à l’écart, avec ses fictions, et ce malgré un médium, le langage, commun à la philosophie et dont la qualité discursive correspond au mode d’expression de la pensée, malgré sa place acquise parmi les disciplines académiques, c’est parce que nous refusons de voir quel rôle vital joue l’affect dans la naissance et l’élaboration de la pensée. Le rejet de l’affect par la science est lui-même le produit de plusieurs affects — peur, orgueil — à partir desquels nous créons le concept de « pensée » qui nous convient le mieux, qui nous rassure le plus : rationalité, linéarité, objectivité. En réalité, cette dernière est chaotique et subjective et c’est seulement à travers son expression dans le langage qu’elle s’ordonne et acquiert une apparence d’objectivité. Mais le langage est lui-même le produit d’affects : nulle vérité infaillible ne sous-tend l’élaboration de nos langues, de leurs règles grammaticales et des sens de leurs mots. Ainsi la littérature, malgré (ou à cause de) la fiction, les fables, les inventions, parce qu’elle est création langagière, parce qu’elle remet toujours en question le langage est, en réalité, plus lucide que la raison. De plus, toujours aux prises avec l’image, elle connaît, d’une certaine façon, l’affect. Elle tente de le représenter, afin de frapper et d’ébranler la conscience du lecteur. C’est à travers elle que j’ai voulu élaborer non pas un savoir rationnel, mais un savoir sur l’affect, un savoir affectif. Pensée critique et affect sont en effet deux composantes essentielles de la création littéraire, ce qui apparaît particulièrement dans l’œuvre d’Ingeborg Bachmann, qui compte à la fois une thèse en philosophie sur Heidegger, des recueils de poésie, de nouvelles, des essais et un cycle romanesque inachevé, Todesarten. Je me suis penchée plus précisément sur certaines de ses nouvelles ainsi que sur son seul roman achevé, Malina, afin d’y étudier la représentation de l’affect chez certains personnages féminins qui, pour éviter de trop souffrir, construisent autour d’elles un mur de mensonges. J’ai également porté une grande attention aux théories de Bachmann sur la littérature, qu’elle énonce dans ses Leçons de Francfort, ce qui m’a permis, en considérant en même temps ses œuvres de fiction de même que celles de quelques autres écrivains, d’expliquer (de façon non exhaustive) certains rôles de l’affect à la fois chez l’écrivain et chez le lecteur.
Resumo:
Le présent mémoire cherche à comprendre la nature des rapports entre la ville de Paris et le roi Charles IX grâce à l’étude de l’entrée royale de ce dernier dans la capitale en 1571. Pour l’historien, l’étude des grands rituels monarchiques permet de saisir les mécanismes symboliques de communication qui créent en quelque sorte le pouvoir royal. L’entrée royale, rituel codifié durant lequel une ville accueille son souverain, permet d’observer la nature des rapports entre le pouvoir monarchique et le pouvoir urbain. Généralement perçue comme un moment consensuel, l’entrée royale peut aussi servir de cadre pour les édiles urbains afin d’exprimer leurs désaccords à l’égard des politiques du roi. La confrontation entre la relation officielle de l’entrée et les archives municipales met au jour une série de ratés nous permettant de déconstruire l’image de concorde longtemps associée à l’entrée de 1571. Loin d’être un portrait élogieux du roi Charles IX, le programme de l’entrée parisienne de 1571 célèbre plutôt Catherine de Médicis et le duc Henri d’Anjou. En cela, les édiles parisiens expriment leurs critiques face à un pouvoir monarchique dont l’inaction durant les guerres de religion illustre la trop grande faiblesse.
Resumo:
Le Teyyam est un rituel de possession hindouiste du Kerala (Inde du Sud) qui nécessite une pratique intransigeante : restrictions, jeûnes, exploits physiques, résistance à la chaleur du feu. Vêtus de costumes spectaculaires, des performeurs de caste intouchable dansent l’épée à la main, au son des tambours frénétiques, et font entendre la parole du dieu qu’ils incarnent; ils auront même le droit de critiquer le système des castes devant la communauté assemblée, le temps d’une inversion rituelle. Alors qu’autrefois il s’agissait d’un devoir de caste associé à une grande précarité, aujourd’hui il s’agit d’un métier que l’on peut choisir d’exercer ou non. Bien qu’on ait déploré un manque de relève à cause des conditions jugées trop difficiles, il y a toutefois de jeunes hommes qui ont décidé de poursuivre cette tradition ancestrale. Au Kerala, de nombreux jeunes aspirent à la classe moyenne et misent sur l’éducation pour espérer un bon emploi, il y a des opportunités, mais pas pour tous, et surtout beaucoup de compétition. C’est dans ce contexte que de jeunes hommes éduqués souhaitent poursuivre une tradition qu’ils admirent et dont ils sont fiers, mais sans avoir à sacrifier leurs chances de réussite sociale. Quelles sont leurs aspirations, quel sens donnent-ils à ce qu’ils souhaitent accomplir? Traditionnellement les relations de patronage dans le Teyyam ont été très dures sous le joug du système des castes, qu’en est-il aujourd’hui? Comment ces performeurs arrivent-il à négocier la réalisation de leurs aspirations dans les coulisses du Teyyam?
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.