838 resultados para Reflective abstraction
Resumo:
Les fructose-1,6-bisphosphate aldolases (FBPA) sont des enzymes glycolytiques (EC 4.1.2.13) qui catalysent la transformation réversible du fructose-1,6-bisphosphate (FBP) en deux trioses-phosphates, le glycéraldéhyde-3-phosphate (G3P) et le dihydroxyacétone phosphate (DHAP). Il existe deux classes de FBPA qui diffèrent au niveau de leur mécanisme catalytique. Les classes I passent par la formation d’un intermédiaire covalent de type iminium alors que les classes II, métallodépendantes, utilisent généralement un zinc catalytique. Contrairement au mécanisme des classes I qui a été très étudié, de nombreuses interrogations subsistent au sujet de celui des classes II. Nous avons donc entrepris une analyse détaillée de leur mécanisme réactionnel en nous basant principalement sur la résolution de structures cristallographiques. De nombreux complexes à haute résolution furent obtenus et ont permis de détailler le rôle de plusieurs résidus du site actif de l’enzyme. Nous avons ainsi corrigé l’identification du résidu responsable de l’abstraction du proton de l’O4 du FBP, une étape cruciale du mécanisme. Ce rôle, faussement attribué à l’Asp82 (chez Helicobacter pylori), est en fait rempli par l’His180, un des résidus coordonant le zinc. L’Asp82 n’en demeure pas moins essentiel car il oriente, active et stabilise les substrats. Enfin, notre étude met en évidence le caractère dynamique de notre enzyme dont la catalyse nécessite la relocalisation du zinc et de nombreux résidus. La dynamique de la protéine ne permet pas d’étudier tous les aspects du mécanisme uniquement par l’approche cristallographique. En particulier, le résidu effectuant le transfert stéréospécifique du proton pro(S) sur le carbone 3 (C3) du DHAP est situé sur une boucle qui n’est visible dans aucune de nos structures. Nous avons donc développé un protocole de dynamique moléculaire afin d’étudier sa dynamique. Validé par l’étude d’inhibiteurs de la classe I, l’application de notre protocole aux FBPA de classe II a confirmé l’identification du résidu responsable de cette abstraction chez Escherichia coli (Glu182) mais pointe vers un résidu diffèrent chez H. pylori (Glu149 au lieu de Glu142). Nos validations expérimentales confirment ces observations et seront consolidées dans le futur. Les FBPA de classe II sont absentes du protéome humain mais sont retrouvées chez de nombreux pathogènes, pouvant même s'y révéler essentielles. Elles apparaissent donc comme étant une cible idéale pour le développement de nouveaux agents anti-microbiens. L’obtention de nouveaux analogues des substrats pour ces enzymes a donc un double intérêt, obtenir de nouveaux outils d’étude du mécanisme mais aussi développer des molécules à visée pharmacologique. En collaboration avec un groupe de chimistes, nous avons optimisé le seul inhibiteur connu des FBPA de classe II. Les composés obtenus, à la fois plus spécifiques et plus puissants, permettent d’envisager une utilisation pharmacologique. En somme, c’est par l’utilisation de techniques complémentaires que de nouveaux détails moléculaires de la catalyse des FBPA de classe II ont pu être étudiés. Ces techniques permettront d’approfondir la compréhension fine du mécanisme catalytique de l’enzyme et offrent aussi de nouvelles perspectives thérapeutiques.
Resumo:
Between 2005 and 2007 the Ministry of Social Development of Uruguay implemented the National Plan for Social Emergency (PANES). One of the most outstanding results in the evaluations was the de-naturalization of some socio-cultural phenomena that were strongly rooted within society: domestic violence, social immobility, adult illiteracy. The consideration of these social phenomena as acceptable demonstrates the existence of mechanisms that generate irrational or adaptive preferences. What were the processes that aided in the de-naturalization of these preferences? The evaluation of PANES concludes that one way was the local participation in groups that promote a public deliberation. These results are consistent with the philosophical literature on the importance of deliberation and participation for developing capabilities and autonomy. The hypothesis is as follows: the participation in groups that involve public deliberation can lead to reversing the adaptive preferences that restrict personal autonomy through the creation of an intersubjective and cognitive agency. This agency has three features: a) it involves the expansion of an "inner space" into the person, b) it establishes a reflective distance that allows for the revision of preferences to reconstruct levels of self-esteem, self-respect and self-confidence; c) it is generated as a byproduct of activities set for other purposes.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
En vue de saisir la pensée kantienne dans toute sa virulence, on ne peut jamais faire abstraction de la place éminente de Jean-Jacques Rousseau dans cette philosophie qui ne cesse pas à marquer, à définir et à poser des jalons de la pensée moderne. À cet égard, si le Genevois communique les grandes leçons de sa théorie de l’homme sous la guise d’une éducation, il s’agit ici non pas d’une philosophie de l’éducation mais bien plus d’une philosophie comme éducation. C’est effectivement cette thèse que Kant reprend, suit et enrichie d’une manière sui generis pour renverser l’ordre théorique mais surtout pratique de religion-moralité-devoir et libérer une fois pour toutes la morale des dogmes théologiques et finalement pour édifier une philosophie pratique comme l’éducation de l’espèce humaine. Le but de cette étude est de jeter quelques lumières sur la place sans pareille de Jean-Jacques Rousseau dans la philosophie kantienne de l’éducation.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.
Resumo:
La transplantation de sang de cordon ombilical (TSCO) est utilisée pour traiter les enfants atteints de maladies hématologiques en l’absence de donneurs apparentés compatibles. Elle est associée avec des risques plus élevés d’échec de greffe et d’infections opportunistes dans les premiers mois qui suivent la transplantation en comparaison avec une greffe de moelle osseuse. Par contre, la TSCO comporte un risque plus faible de maladie du greffon contre l’hôte et une incidence comparable de rechute de leucémie. Ces quatre complications impliquent directement les lymphocytes T. Dans le but de mieux comprendre le schéma particulier des évènements qui suivent la TSCO et d’améliorer le pronostic des patients, nous avons étudié le potentiel fonctionnel, la persistance et la reconstitution antivirale des lymphocytes T au sein d’un groupe d’enfants transplantés de sang de cordon ombilical (SCO). Étant donné que le SCO contient une majorité de lymphocytes T naïfs, nous avons étudié les lymphocytes T spécifiques au HLA-A2:Melan-A26-35 A27L; seul répertoire naïf et abondant caractérisé chez l’homme. Nous avons observé que les lymphocytes T du SCO se différencient en populations effectrices, s’oligoclonalisent, produisent de l’IFN-γ et lysent spécifiquement leur cible suite à la stimulation. Néanmoins, ces cellules produisent moins d’IFN-γ et sont moins bifonctionnelles que leurs homologues issus du sang périphérique d’adultes. Chez les patients, les lymphocytes T du SCO s’épuisent après la TSCO : ils s’oligoclonalisent dramatiquement, sont principalement en différenciation terminale, et une importante fréquence exprime PD-1 (« programmed death-1 ») dans les 3 à 6 premiers mois post-greffe. Très peu de patients sont capables de développer des réponses antivirales durant cette période et la fréquence de lymphocytes T qui expriment PD-1 semble aussi avoir un impact sur le risque subséquent de faire une rechute de leucémie. La deuxième vague de lymphocytes T émergeant à 6 mois post-TSCO mène à une population fonctionnelle et diversifiée. En conclusion, la fonctionnalité des lymphocytes T présents dans les 3 à 6 premiers mois post-TSCO doit être rétablie pour améliorer les risques d’infections opportunistes et de rechute de leucémie.
Resumo:
Ma thèse de doctorat, intitulée Inventing Interventions: Strategies of Reappropriation in Native and First Nations Literatures traite du sujet de la réappropriation de la langue anglaise et de la langue française dans les littératures autochtones du Canada et des États-Unis, en tant que stratégie d’intervention de re-narration et de récupération. De fait, mon projet fait abstraction, autant que possible, des frontières nationales et linguistiques, vu que celles-ci sont essentiellement des constructions culturelles et coloniales. Ainsi, l’acte de réappropriation de la langue coloniale implique non seulement la maîtrise de base de cette dernière à des fins de communication, cela devient un moyen envers une fin : au lieu d’être possédés par la langue, les auteurs sur lesquels je me penche ici possèdent à présent cette dernière, et n’y sont plus soumis. Les tensions qui résultent d’un tel processus sont le produit d’une transition violente imposée et expérimentale d’une réalité culturelle à une autre, qui, pour plusieurs, n’a pas réussie et s’est, au contraire, effritée sur elle-même. Je soutiens donc que les auteurs autochtones ont créé un moyen à travers l’expression artistique et politique de répondre (dans le sens de « write back ») à l’oppression et l’injustice. À travers l’analyse d’oeuvres contemporaines écrites en anglais ou en français, que ce soit de la fiction, de l’autobiographie, de la poésie, du théâtre, de l’histoire ou du politique, ma recherche se structure autour de quatre concepts spécifiques : la langue, la résistance, la mémoire, et le lieu. J’examine comment ces concepts sont mis en voix, et comment ils sont interdépendants et s’affectent à l’intérieur du discours particulier issu des littératures autochtones et des différentes stratégies d’intervention (telles la redéfinition ou l’invention) et du mélange de différentes formules littéraires.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Comme à l’approche d’un tsunami, l’incidence grandissante des allergies affecte maintenant plus de 30% de la population des pays développés. Étant la cause de nombreuses morbidités et un risque significatif de mortalité, les allergies nécessitent des dépenses exorbitantes au système de santé et constituent une des plus importantes sources d’invalidité. Cette thèse a pour but de contribuer à faciliter la prise de décision éclairée dans le développement de politiques en santé en lien avec cette maladie immunitaire chronique en utilisant des principes d’éthique comme outils pour guider le développement de politiques en santé. Le premier chapitre démontre le présent déficit d’analyses des enjeux éthiques en allergologie et démontre de quelle façon les réflexions en éthique peuvent guider le développement de politiques et l’élaboration de stratégies appliquées aux allergies. Les chapitres qui suivront présentent des applications spécifiques des principes d’éthiques ciblant des contextes précis comme des méthodes qui fournissent des outils de réflexion et des cadres théoriques qui peuvent être appliqués par les décideurs pour guider des interventions en santé concernant les allergies et les conditions de co-morbidité reliées. Le second chapitre présente un cadre théorique pour l’évaluation et la priorisation d’interventions en santé publique par la diminution des allergènes présents dans l’environnement basées sur des théories de justice sociale. Les critères entourant les politiques d’évaluation se concentrent sur les enjeux éthiques référant aux populations vulnérables, sur une distribution plus égale des bénéfices pour la santé, et sur le devoir d’éviter la stigmatisation. Le troisième chapitre offre aux administrateurs et au personnel infirmier du réseau scolaire un cadre décisionnel pour guider le développement de politiques efficaces et éthiquement justifiables concernant les allergies alimentaires pour les écoles. Dans ce contexte, les principes de base d’éthique en santé publique et en bioéthique - par exemple, l’empowerment des populations vulnérables dans la prise en charge de leur santé et la protection de la confidentialité du dossier médical - servent d’outils pour évaluer les politiques. Le dernier chapitre emploie les principes de base de recherche en éthique comme méthode pour développer un argumentaire en faveur de la réforme des réglementations entourant la production de médicaments immunothérapeutiques. La nécessité éthique d’éviter les risques de méfait à l’endroit du sujet humain dans la recherche permettra de servir de guide pour structurer de futures politiques en santé publique en égard à la production d’immunothérapeutiques à l’échelle mondiale.
Resumo:
Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine. Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène. Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise.
Resumo:
Les états mentaux réfèrent à la qualité de la capacité d’un individu à élaborer mentalement et à s’ouvrir à son expérience subjective dans l’ici et maintenant. Les divers états mentaux varient quant à la disponibilité des ressources représenta-tionnelles et affectives pouvant être activées afin d’organiser l’expérience vécue, ainsi que dans leur utilisation de stratégies défensives et d’autorégulation. La présente thèse avait pour objectifs 1) d’approfondir l’évaluation des états mentaux par le développement et la validation d’un instrument pratique, le Mental States Task (MST), développé afin d’évaluer différentes qualités d’états mentaux et 2) d’investiguer les propriétés psychiques et les répercussions des différents états mentaux. Le premier article avait pour but de valider le MST. La première partie de l’article est consacrée à la validation du MST dans sa version francophone, et la deuxième partie porte sur la traduction et la validation du MST dans sa version anglophone. Les résultats fournissent des indices convaincants de validité et de fidélité, ainsi qu’une valeur prédictive adéquate. Le MST semble représenter de façon conforme autant les états mentaux de bas niveau que de haut niveau selon le continuum de réflexivité. De fait, les états mentaux de bas niveau et de haut niveau ont été respectivement associés à un large spectre de construits négatifs/immatures et positifs/matures. De plus, chaque état mental évalué par le MST semble posséder des propriétés particulières relativement aux processus mentaux et émotionnels utilisés pour traiter l’expérience. Le second article avait pour objectif d’approfondir l’étude de la valeur prédictive du MST par le biais de l’évaluation des coûts psychiques engendrés par les différentes qualités d’états mentaux—coûts présumés dépendant des ressources représentationnelles disponibles et du type de stratégies de régulation utilisées. Les résultats suggèrent que les états mentaux de bas niveau génèrent des coûts énergétiques plus élevés, ayant pour répercussion d’entraîner subséquemment un effet de déplétion du moi. Inversement, les états mentaux de haut niveau engendrent de moindres coûts, protégeant contre un état subséquent de déplétion du moi. Le MST s’est avéré être un outil efficace d’évaluation des répercussions énergétiques occasionnées par les divers états mentaux.