964 resultados para Le Songe d’une nuit d’été
Resumo:
My thesis explores the formation of the subject in the novels of Faulkner’s Go Down, Moses, Toni Morrison’s Song of Solomon, and Gloria Naylor’s Mama Day. I attach the concept of property in terms of how male protagonists are obsessed with materialistic ownership and with the subordination of women who, as properties, consolidate their manhood. The three novelists despite their racial, gendered, and literary differences share the view that identity and truth are mere social and cultural constructs. I incorporate the work of Judith Butler and other poststructuralist figures, who see identity as a matter of performance rather than a natural entity. My thesis explores the theme of freedom, which I attached to the ways characters use their bodies either to confine or to emancipate themselves from the restricting world of race, class, and gender. The three novelists deconstruct any system of belief that promulgates the objectivity of truth in historical documents. History in the three novels, as with the protagonists, perception of identity, remains a social construct laden with distortions to serve particular political or ideological agendas. My thesis gives voice to African American female characters who are associated with love and racial and gender resistance. They become the reservoirs of the African American legacy in terms of their association with the oral and intuitionist mode of knowing, which subverts the male characters’ obsession with property and with the mainstream empiricist world. In this dissertation, I use the concept of hybridity as a literary and theoretical devise that African-American writers employ. In effect, I embark on the postcolonial studies of Henry Louise Gates, Paul Gilroy, W. E. B Du Bois, James Clifford, and Arjun Appadurai in order to reflect upon the fluidity of Morrison’s and Naylor’s works. I show how these two novelists subvert Faulkner’s essentialist perception of truth, and of racial and gendered identity. They associate the myth of the Flying African with the notion of hybridity by making their male protagonists criss-cross Northern and Southern regions. I refer to Mae Gwendolyn Henderson’s article on “Speaking in Tongues” in my analysis of how Naylor subverts the patriarchal text of both Faulkner and Morrison in embarking on a more feminine version of the flying African, which she relates to an ex-slave, Sapphira Wade, a volatile female character who resists fixed claim over her story and identity. In dealing with the concept of hybridity, I show that Naylor rewrites both authors’ South by making Willow Springs a more fluid space, an assumption that unsettles the scores of critics who associate the island with authenticity and exclusive rootedness.
Resumo:
Alzheimer's disease is the most common type of dementia in the elderly; it is characterized by early deficits in learning and memory formation and ultimately leads to a generalised loss of higher cognitive functions. While amyloid beta (Aβ) and tau are traditionally associated with the development of Alzheimer disease, recent studies suggest that other factors, like the intracellular domain (APP-ICD) of the amyloid precursor protein (APP), could play a role. In this study, we investigated whether APP-ICD could affect synaptic transmission and synaptic plasticity in the hippocampus, which is involved in learning and memory processes. Our results indicated that overexpression of APP-ICD in hippocampal CA1 neurons leads to a decrease in evoked AMPA-receptor and NMDA-receptor dependent synaptic transmission. Our study demonstrated that this effect is specific for APP-ICD since its closest homologue APLP2-ICD did not reproduce this effect. In addition, APP-ICD blocks the induction of long term potentiation (LTP) and leads to increased of expression and facilitated induction of long term depression (LTD), while APLP2-ICD shows neither of these effects. Our study showed that this difference observed in synaptic transmission and plasticity between the two intracellular domains resides in the difference of one alanine in the APP-ICD versus a proline in the APLP2-ICD. Exchanging this critical amino-acid through point-mutation, we observed that APP(PAV)-ICD had no longer an effect on synaptic plasticity. We also demonstrated that APLP2(AAV)-ICD mimic the effect of APP-ICD in regards of facilitated LTD. Next we showed that the full length APP-APLP2-APP (APP with a substitution of the Aβ component for its homologous APLP2 part) had no effect on synaptic transmission or synaptic plasticity when compared to the APP-ICD. However, by activating caspase cleavage prior to induction of LTD or LTP, we observed an LTD facilitation and a block of LTP with APP-APLP2-APP, effects that were not seen with the full length APLP2 protein. APP is phosphorylated at threonine 668 (Thr668), which is localized directly after the aforementioned critical alanine and the caspase cleavage site in APP-APLP2-APP. Mutating this Thr668 for an alanine abolishes the effects on LTD and restores LTP induction. Finally, we showed that the facilitation of LTD with APP-APLP2-APP involves ryanodine receptor dependent calcium release from intracellular stores. Taken together, we propose the emergence of a new APP intracellular domain, which plays a critical role in the regulation of synaptic plasticity and by extension, could play a role in the development of memory loss in Alzheimer’s disease.
Resumo:
Le risque de développer un problème de jeu chez les personnes atteintes de la maladie de Parkinson (MP) est de plus en plus documenté. Un type de médicament visant à contrôler les symptômes moteurs, l’agoniste dopaminergique, serait l’un des principaux facteurs liés à son développement. Par le biais d’une synthèse narrative présentée dans le chapitre 3, les mécanismes neurobiologiques et les autres facteurs en lien sont discutés. Un important constat ressort toutefois : l’étude des habitudes de jeu de ces patients est pratiquement absente. Ce constat est surprenant puisque la littérature sur le jeu regorge d’informations à prendre en considération dans le développement de ce trouble, telles que les types de jeu pratiqués, les montants dépensés, les raisons pour jouer et la présence de proches. Le deuxième article consiste donc à répondre à cette lacune relevée en faisant le portrait de leurs habitudes de jeu. Vingt-cinq personnes souffrant de la MP ont été recrutées et parmi celles-ci, quinze ont joué dans les six derniers mois. L’examen de leurs habitudes de jeu révèle que les jeux préférés sont la loterie et la machine à sous et qu’elles ont, en majorité, débuté la pratique de ces jeux avant l’établissement du diagnostic de la MP. Les patients sont moins intéressés à jouer aux machines à sous comparativement à un échantillon de joueurs âgés de plus de 55 ans mais, en contrepartie, ce jeu est celui auquel les plus grands montants étaient dépensés chez les participants qui ont rapporté avoir développé un problème de jeu. Les participants jouent pour le plaisir ou pour gagner de l’argent, mais des raisons non répertoriées, liées à leur maladie, ont été relevées. Ces patients n’ont pas recours à des proches aidants pour les aider dans la pratique de leur jeu favori et ces derniers ont manifesté leur méconnaissance de la pratique de jeux de hasard et d’argent des participants. Parmi l’ensemble des participants rencontrés, trois d’entre eux se sont révélés être des joueurs à risque. En plus de jouer aux machines à sous, des croyances erronées et des motivations spécifiques à jouer ont été relevées chez ces derniers. La réflexion découlant de ces résultats pourra stimuler la recherche dans l’étude des variables psychosociales en lien avec le développement d’un problème de jeu chez ces patients.
Resumo:
Les macrolactones sont des squelettes structuraux importants dans de nombreuses sphères de l’industrie chimique, en particulier dans les marchés pharmaceutiques et cosmétiques. Toutefois, la stratégie traditionnelle pour la préparation de macrolactones demeure incommode en requérant notamment l’ajout (super)stœchiométrique d’agents activateurs. Conséquemment, des quantités stœchiométriques de sous-produits sont générées; ils sont souvent toxiques, dommageables pour l’environnement et nécessitent des méthodes de purification fastidieuses afin de les éliminer. La présente thèse décrit le développement d’une macrolactonisation efficace catalysée au hafnium directement à partir de précurseurs portant un acide carboxylique et un alcool primaire, ne générant que de l’eau comme sous-produit et ne nécessitant pas de techniques d’addition lente et/ou azéotropique. Le protocole a également été adapté à la synthèse directe de macrodiolides à partir de mélanges équimolaires de diols et de diacides carboxyliques et à la synthèse de dimères tête-à-queue de seco acides. Des muscs macrocycliques ainsi que des macrolactones pertinentes à la chimie médicinale ont pu être synthétisés avec l’approche développée. Un protocole pour l’estérification directe catalysée au hafnium entre des acides carboxyliques et des alcools primaires a aussi été développé. Différentes méthodes pour la macrolactonisation catalytique directe entre des alcools secondaires et des acides carboxyliques ont été étudiées. En outre, la stratégie de séparation de phase en macrocyclisation en débit continu a été appliquée lors de la synthèse totale formelle de la macrolactone ivorenolide A. Les étapes-clés de la synthèse incluent une macrocyclisation par le couplage d’alcynes de Glaser-Hay et une réaction de métathèse d’alcènes Z-sélective.
Resumo:
La Banque mondiale propose la bonne gouvernance comme la stratégie visant à corriger les maux de la mauvaise gouvernance et de faciliter le développement dans les pays en développement (Carayannis, Pirzadeh, Popescu & 2012; & Hilyard Wilks 1998; Leftwich 1993; Banque mondiale, 1989). Dans cette perspective, la réforme institutionnelle et une arène de la politique publique plus inclusive sont deux stratégies critiques qui visent à établir la bonne gouvernance, selon la Banque et d’autres institutions de Bretton Woods. Le problème, c’est que beaucoup de ces pays en voie de développement ne possèdent pas l’architecture institutionnelle préalable à ces nouvelles mesures. Cette thèse étudie et explique comment un état en voie de développement, le Commonwealth de la Dominique, s’est lancé dans un projet de loi visant l’intégrité dans la fonction publique. Cette loi, la Loi sur l’intégrité dans la fonction publique (IPO) a été adoptée en 2003 et mis en œuvre en 2008. Cette thèse analyse les relations de pouvoir entre les acteurs dominants autour de évolution de la loi et donc, elle emploie une combinaison de technique de l’analyse des réseaux sociaux et de la recherche qualitative pour répondre à la question principale: Pourquoi l’État a-t-il développé et mis en œuvre la conception actuelle de la IPO (2003)? Cette question est d’autant plus significative quand nous considérons que contrairement à la recherche existante sur le sujet, l’IPO dominiquaise diverge considérablement dans la structure du l’IPO type idéal. Nous affirmons que les acteurs "rationnels," conscients de leur position structurelle dans un réseau d’acteurs, ont utilisé leurs ressources de pouvoir pour façonner l’institution afin qu’elle serve leurs intérêts et ceux et leurs alliés. De plus, nous émettons l’hypothèse que: d’abord, le choix d’une agence spécialisée contre la corruption et la conception ultérieure de cette institution reflètent les préférences des acteurs dominants qui ont participé à la création de ladite institution et la seconde, notre hypothèse rivale, les caractéristiques des modèles alternatifs d’institutions de l’intégrité publique sont celles des acteurs non dominants. Nos résultats sont mitigés. Le jeu de pouvoir a été limité à un petit groupe d’acteurs dominants qui ont cherché à utiliser la création de la loi pour assurer leur légitimité et la survie politique. Sans surprise, aucun acteur n’a avancé un modèle alternatif. Nous avons conclu donc que la loi est la conséquence d’un jeu de pouvoir partisan. Cette recherche répond à la pénurie de recherche sur la conception des institutions de l’intégrité publique, qui semblent privilégier en grande partie un biais organisationnel et structurel. De plus, en étudiant le sujet du point de vue des relations de pouvoir (le pouvoir, lui-même, vu sous l’angle actanciel et structurel), la thèse apporte de la rigueur conceptuelle, méthodologique, et analytique au discours sur la création de ces institutions par l’étude de leur genèse des perspectives tant actancielles que structurelles. En outre, les résultats renforcent notre capacité de prédire quand et avec quelle intensité un acteur déploierait ses ressources de pouvoir.
Resumo:
La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Alain Robbe-Grillet, d’abord connu en tant que romancier, a dès le début des années 1960 partagé son temps entre le cinéma et la littérature. Après avoir fourni le scénario de L’année dernière à Marienbad, il est passé derrière la caméra et a réalisé une dizaine de films qui, tant par leur forme que leur propos, poursuivent les recherches esthétiques entreprises dans sa pratique littéraire. Plus encore, il nous semble que le début de cette aventure cinématographique marque un tournant dans son œuvre. Alors que le point de vue qui portait les premiers romans — point de vue que les critiques ont rapproché de celui d’une caméra —, marquait déjà la dimension intermédiale de son œuvre, il apparaît que son passage dans la chaise du réalisateur a été le germe d’une radicalisation de sa pratique. Ainsi, les romans et les films qui ont suivi possèdent une portée intermédiale beaucoup plus large. De fait, c’est l’ensemble de la narration qui s’y trouve remise en question par la mise en évidence des spécificités de chacun des médias et par la transposition de procédés propres à la littérature dans le film, et vice versa. C’est par une étude comparative de La maison de rendez-vous (1965) et de L’homme qui ment (1968) que nous montrons en quoi consiste la relation intermédiale que Robbe-Grillet établit entre les disciplines, en plus de mettre en évidence les mécaniques qui, ancrées dans la matérialité des médias, fondent le roman et le film.
Resumo:
Les tissus épithéliaux recouvrent les surfaces et les cavités du corps et fonctionnent comme des barrières sélectives capables d’échanges entre les différents compartiments de l’organisme. La fonctionnalité de ces tissus repose notamment sur la mise en place et le maintien d’une asymétrie structurale des cellules épithéliales, aussi appelée « polarité épithéliale ». La modulation des mécanismes orchestrant l’asymétrie membranaire est centrale dans la formation et le maintien de l’architecture des tissus épithéliaux. Ainsi, des défauts de polarité épithéliale provoquent des anomalies morphologiques et fonctionnelles des tissus épithéliaux, qui peuvent contribuer au cancer chez l’Homme. C’est pourquoi, la compréhension des processus liés à la polarité épithéliale constitue des objectifs cruciaux dans la biologie des épithéliums et dans la santé humaine, pour assurer le développement de nouvelles thérapies liées au rétablissement des fonctions soutenues par une asymétrie membranaire. Les mécanismes de polarité épithéliale et leurs fonctions signalétiques dans la morphogenèse des tissus épithéliaux jouent un rôle central dans ma thèse et font l’objet de mon introduction. Mon projet de doctorat a consisté à caractériser la fonction et la régulation de Crumbs, un acteur clé dans la mise en place du domaine apical, dans le contrôle de la morphologie cellulaire et dans la morphogenèse des tissus épithéliaux. C’est pourquoi, l’étude de la régulation de la fonction de Crb au sein de la cellule épithéliale revêt un rôle capital dans la compréhension de la biologie des épithéliums. Dans ce cadre, nous avons d’abord permis d’approfondir les modalités d’une éventuelle fonction du domaine extracellulaire de CRB3A. De plus, nous montrons que la GTPase Rac1 permet de contrôler Crumbs dans un contexte tridimensionnel. Ainsi, nous proposons un modèle fonctionnel de Crumbs, soutenu par des approches in vitro et in vivo, dans le contrôle de la morphologie cellulaire et la morphogenèse des tissus tridimensionnels.
Resumo:
La galaxie spirale barrée NGC 5430 est particulière en ce sens qu’elle présente un noeud Wolf-Rayet très lumineux et des bras asymétriques. Des spectres longue-fente le long de la barre et dans le bras déformé ainsi que des données SpIOMM couvrant l’ensemble de la galaxie ont été analysées. L’absorption stellaire sous-jacente a été soustraite des spectres longue-fente à l’aide d’un ajustement de modèles théoriques de populations stellaires fait avec le programme GANDALF. L’absorption a un impact très important sur le calcul de l’extinction ainsi que sur les différents diagnostics propres aux régions HII et aux populations stellaires jeunes. Enfin, cette étude montre que NGC 5430 comporte une composante gazeuse ionisée diffuse sur toute son étendue et qu’il est important d’en tenir compte afin d’appliquer correctement les diagnostics. Un des scénarios évolutifs proposés au terme de cette étude est que le noeud Wolf-Rayet constitue le restant d’une petite galaxie ou d’un nuage intergalactique qui serait entré en collision avec NGC 5430. Une structure englobant le noeud Wolf-Rayet se déplace à une vitesse considérablement inférieure (50 - 70 km s-1) à celle attendue à une telle distance du centre de la galaxie (200 - 220 km s-1). De plus, le noeud Wolf-Rayet semble très massif puisque l’intensité maximale du continu stellaire de cette région est semblable à celle du noyau et est de loin supérieure à celle de l’autre côté de la barre. Le nombre d’étoiles Wolf-Rayet (2150) est aussi considérable. Il n’est toutefois pas exclu que la différence de vitesses observée témoigne d’un écoulement de gaz le long de la barre, qui alimenterait la formation stellaire du noeud Wolf-Rayet ou du noyau.
Resumo:
Alors que dans ses précédents travaux, Axel Honneth se proposait de reconstruire la Théorie critique, dans le cadre d’une nouvelle philosophie sociale, soutenue par le concept hégélien de reconnaissance, une réorientation fut observée dans le contenu de son plus récent ouvrage : Le droit de la liberté : Esquisse d’une éthicité démocratique. En ayant auparavant pris appui sur la théorie de la reconnaissance, il tente désormais d’utiliser une méthode similaire, mais en dressant cette fois-ci un cadre descriptif qui s’articule autour du concept de liberté. Pour y parvenir, il met en lumière les limites des libertés morales et juridiques, pour proposer une liberté sociale comme thérapie, qu’il décline sous les trois formes du « « nous » des relations personnelles », du « « nous » de l’agir à l’oeuvre dans l’économie de marché », puis du « « nous » de la formation démocratique de la volonté ». L’objet de notre recherche est donc de dresser un bilan critique de cette oeuvre, puis de tenter de cerner, en mettant cette conception honnethienne de la liberté en dialogue avec d’autres auteurs, si Axel Honneth a pu laisser certaines zones d’ombre ou angles morts au passage.
Resumo:
Les chercheurs spécialisés en droit ont souvent pris pour modèle la méthodologie de la recherche inspirée des différentes sciences humaines. Or, les réflexions élaborées par certains historiens sur leur propre méthodologie, plus particulièrement celles qui ont été livrées par Paul Veyne dans son ouvrage "Comment on écrit l’histoire", sont aussi très éclairantes pour toute personne qui s’interroge sur la méthodologie de la recherche en droit. Selon cet auteur, et paradoxalement, "l’histoire n’a pas de méthode" et les historiens "racontent des événements vrais qui ont l’homme pour acteur". Transposées au domaine du droit, ces affirmations libéreraient en quelque sorte le chercheur d’une quête d’une méthodologie "scientifique" tout en le soumettant à une exigence, celle de décrire des événements vrais. La transposition est-elle possible? L’épistémologie historique est-elle pertinente pour les juristes? Voilà les questions que l’auteur abordera dans l’article qui suit.
Resumo:
Cette thèse propose de voir comment les romancières des années 1930 poursuivent un mouvement collectif d’accès à la vie littéraire amorcé depuis la fin du XIXe siècle, tout en ouvrant le chemin à de nombreuses voies inexplorées dans la littérature canadienne-française. Dans la foulée de la démarche sociopoétique proposée par Alain Viala, elle emprunte aux travaux en sociocritique des textes, en histoire littéraire et culturelle et aux études sur le genre afin de retracer la trajectoire des écrivaines et d’examiner, à travers les romans et les textes intimes (lettres, journaux intimes), les modulations d’un ensemble de discours, tant publics que privés, tenus par les femmes qui font le choix d’une carrière littéraire. Après avoir présenté l’ensemble des dynamiques ainsi que l’imaginaire générique qui structurent et encadrent la production littéraire féminine durant l’entre-deux-guerres, l’analyse est resserrée autour de trois auteures : Jovette-Alice Bernier, Éva Senécal et Michelle Le Normand. L’étude des archives révèle comment les discours épistolaires et diaristiques figurent des laboratoires du texte en gestation, tout comme ils dynamisent l’infusion de plusieurs postures tendant à négocier et à légitimer l’action et le discours des écrivaines ; postures qui trouveront leur prolongement dans les fictions. Puis, l’analyse des formes narratives, des motifs et des figures à l’œuvre dans les romans publiés en volumes esquisse les contours d’un imaginaire qui problématise la place du féminin dans la société canadienne-française. Enfin, l’analyse de la réception des romans entend démontrer comment le discours critique se borne à déconsidérer la production des femmes et invite ces dernières à interrompre leur carrière ou à bifurquer vers d’autres pratiques discursives. Dans un contexte où « modernité culturelle » rime autant avec « révolution » qu’avec « crise », et où les conditions politiques, socioéconomiques et culturelles transforment l’action, la place et la parole des femmes dans l’espace social, cette étude entend ainsi montrer comment les écrivaines et leurs textes participent d’un renouvellement des pratiques d’écriture, tout en étant les témoins, les critiques et les acteurs privilégiés des tensions et des contradictions qui agitent le Québec des années 1930.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.