131 resultados para paradigmes
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.
Resumo:
Les trois paradigmes majeurs à partir desquels s’oriente l’analyse du voile dans Sordidissimes de Pascal Quignard sont les vêtements et la nudité, les « sordes » et le linceul, la toile et le regard. C’est à l’aide de l’analyse thématique et de la psychanalyse que la relation du voile au corps, à la mort et à l’art, est interprétée. Ce que l’on souhaite mettre en évidence est que le voile tient lieu de l’ambivalence. Il se trouve perpétuellement tendu par la volonté du sujet qui l’utilise tour à tour pour recouvrir ou révéler l’objet de ses désirs ou de ses peurs. Le voile incarne ainsi la frontière d’où s’origine la fascination, qu’elle soit morbide ou sexuelle.
Resumo:
Notre recherche analyse des discours théologiques qui épousent les traits caractéristiques de l’afro-descendance dans des ouvrages de l’Atabaque et de la Conférence Haïtienne des Religieux et Religieuses (CHR). Ces publications permettent de nommer la réflexion théologique afro-brésilienne et haïtienne comme l’expression d’un engagement au sein d’un Brésil multiculturel et métissé et d’une Haïti noire. Elles se réfèrent à la lutte des Afro-descendants et à leur résistance contre ce qu’ils considèrent comme les conséquences de la période de l’esclavage commencée au XVIe siècle qui oppriment encore des Noirs au XXIe siècle et empêchent leur pleine émancipation. Elles font partie d’une démarche postcolonialiste de changement qui inclut l’inculturation et la reconnaissance des forces des religions de matrices africaines dans leur quête d’une pleine libération des Noirs. Notre démarche, basée sur l’étude comparative des contenus de ces théologies développées au Brésil et en Haïti, met en relief des éléments essentiels de deux courants distincts de production théologique de 1986 à 2004. Cette délimitation correspond à la période de publication du résultat de trois consultations sur les théologies noires au Brésil en 1986, en 1995 et en 2004. Les ouvrages de la CHR datent de 1991 à 1999. Notre étude permet de suivre la pratique de la foi chrétienne qui s’y dégage, l’élaboration et le parcours d’évolution de cette pensée. Teologia Negra et théologie haïtienne représentent deux manières distinctes de faire de la théologie noire. Une comparaison entre les deux contextes n’a jamais été faite jusqu’à présent. Cette recherche a conduit au constat selon lequel trois paradigmes peuvent englober les principaux aspects des courants théologiques afro-brésiliens et haïtiens. Nous relevons des convergences et des divergences des paradigmes de l’inculturation libératrice, du postcolonialisme et du pluralisme religieux. La réflexion théologique afro-brésilienne est vue comme une démarche sociopolitique, ancrée surtout dans la promotion des actions positives qui consistent à favoriser l’insertion des Noirs en situation relativement minoritaire dans une société multiculturelle. En Haïti, où les Noirs sont en situation majoritaire, cette réflexion théologique va dans la direction de la sauvegarde des racines historiques en vue de motiver des changements dans une société de Noirs. Cette optique de la question des Noirs, interprétée sous un nouvel angle, offre de nouvelles pistes de réflexion théologique en même temps qu’elle renforce les revendications culturelles des Afro-Brésiliens et des Afro-Haïtiens dans le but d’élaborer un nouveau discours théologique. Notre thèse contribue à mettre en évidence deux institutions qui se dévouent à la cause des Afro-Brésiliens et des Afro-Haïtiens. L’œuvre de l’Atabaque et de la CHR témoigne du fait que celles-ci ont été susceptibles d’agir collectivement en contribuant à la diversité de la réflexion théologique des Afro-descendants, en soutenant un processus de solidarité entre les victimes permanentes du racisme explicite et implicite. Notre étude suscite l’ouverture vers le développement d’une théologie de la rencontre au sein des théologies noires tout en érigeant le défi de construire un réseau Brésil-Haïti à partir des Afro-descendants. Finalement, la spécificité de ces théologies contribue à inspirer le christianisme latino-américain et des Caraïbes et cette réflexion ne se limite pas seulement à ces deux pays, mais s’étend à d’autres contextes latino-américains ou africains.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
Centrée sur une réflexion des droits de l’homme à partir de l’expérience historique de la Shoah, la thèse porte sur l’enjeu fondamental du statut du religieux en modernité. Trois parties la composent, correspondant au génocide, à la modernité politique et à l’histoire du Salut : la première propose une interprétation de l’Holocauste en ayant recours aux catégories empruntées à l’historiographie, à la réflexion philosophique et à la tradition théologique. Elle rend compte de deux lectures concurrentes des Lumières, du renversement de la théologie chrétienne du judaïsme au XXe siècle, de la généalogie idéologique du nazisme ainsi que du contexte explosif de l’entre-deux-guerres. La seconde partie de la thèse avance une théorie des trois modernités, selon laquelle les États-Unis, la France et Vatican II représenteraient des interprétations divergentes et rivales des droits. Enfin, la troisième partie reprend les deux précédentes thématiques de la Shoah et de la modernité, mais à la lumière de la Révélation, notamment de l’Incarnation et de la Croix. La Révélation est présentée comme un double dévoilement simultané de l’identité de Dieu et de la dignité humaine – comme un jeu de miroir où la définition de l’homme est indissociable de celle de la divinité. En provoquant l’effondrement de la Chrétienté, la sécularisation aurait créé un vide existentiel dans lequel se serait engouffré le nazisme comme religion politique et idéologie néo-païenne de substitution. Négation de l'élection d'Israël, du Décalogue et de l’anthropologie biblique, l’entreprise nazie d’anéantissement est comprise comme la volonté d’éradication de la Transcendance et du patrimoine spirituel judéo-chrétien, la liquidation du Dieu juif par l’élimination du peuple juif. Le judéocide pourrait dès lors être qualifié de «moment dans l’histoire du Salut» en ce sens qu’il serait porteur d’un message moral en lien avec le contenu de la Révélation qui interpellerait avec force et urgence la conscience moderne. L’Holocauste constituerait ainsi un kairos, une occasion à saisir pour une critique lucide des apories de la modernité issue des Lumières et pour un renouvellement de la pensée théologico-politique, une invitation à une refondation transcendante des droits fondamentaux, dont la liberté religieuse ferait figure de matrice fondationnelle. La Shoah apporterait alors une réponse au rôle que la Transcendance pourrait jouer dans les sociétés modernes. Mémorial de Sang refondateur des droits de la personne, l'Holocauste rendrait témoignage, il lancerait une mise en garde et poserait les conditions nécessaires d'un enracinement biblique à la préservation de la dignité de l’être humain. Aux Six Millions de Défigurés correspondrait la Création de l'Homme du Sixième Jour. En conclusion, un triangle synergique nourricier est soutenu par l’extermination hitlérienne (1941-1945), la Déclaration universelle des droits de l’homme (1948) et le Concile Vatican II (1962-1965) comme les trois piliers d’une nouvelle modernité, située au-delà des paradigmes américain (1776) et français (1789). La Shoah inaugurerait et poserait ainsi les fondements d'un nouvel horizon civilisationnel; elle pointerait vers un nouveau départ possible pour le projet de la modernité. L'expérience génocidaire n'invaliderait pas la modernité, elle ne la discréditerait pas, mais la relancerait sur des bases spirituelles nouvelles. Cette refondation des droits fondamentaux offrirait alors une voie de sortie et de conciliation à la crise historique qui opposait depuis près de deux siècles en Europe les droits de l'homme et la Transcendance, Dieu et la liberté – modèle susceptible d’inspirer des civilisations non occidentales en quête d’une modernité respectueuse de leur altérité culturelle et compatible avec la foi religieuse.
Resumo:
Thèse de doctorat réalisée en cotutelle avec l'Institut du social et du politique de l'École Normale supérieure de Cachan.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.
Resumo:
Depuis que l'animal humain a conçu un système de technologies pour la pensée abstraite grâce au langage, la guerre contre le monde sauvage est devenu une voie à sens unique vers l'aliénation, la civilisation et la littérature. Le but de ce travail est d'analyser comment les récits civilisationnels donnent une structure à l'expérience par le biais de la ségrégation, de la domestication, de la sélection, et de l'extermination, tandis que les récits sauvages démontrent les possibilités infinies du chaos pour découvrir le monde en toute sa diversité et en lien avec sa communauté de vie. Un des objectifs de cette thèse a été de combler le fossé entre la science et la littérature, et d'examiner l'interdépendance de la fiction et la réalité. Un autre objectif a été de mettre ces récits au cœur d'un dialogue les uns avec les autres, ainsi que de tracer leur expression dans les différentes disciplines et œuvres pour enfants et adultes mais également d’analyser leur manifestations c’est redondant dans la vie réelle. C'est un effort multi-disciplinaires qui se reflète dans la combinaison de méthodes de recherche en anthropologie et en études littéraires. Cette analyse compare et contraste trois livres de fiction pour enfants qui présentent trois différents paradigmes socio-économiques, à savoir, «Winnie-l'Ourson» de Milne qui met en place un monde civilisé monarcho-capitaliste, la trilogie de Nosov sur «les aventures de Neznaika et ses amis» qui présente les défis et les exploits d'une société anarcho-socialiste dans son évolution du primitivisme vers la technologie, et les livres de Moomines de Jansson, qui représentent le chaos, l'anarchie, et l'état sauvage qui contient tout, y compris des épisodes de civilisation. En axant la méthodologie de ma recherche sur la façon dont nous connaissons le monde, j'ai d'abord examiné la construction, la transmission et l'acquisition des connaissances, en particulier à travers la théorie de praxis de Bourdieu et la critique de la civilisation développée dans les études de Zerzan, Ong, et Goody sur les liens entre l'alphabétisation, la dette et l'oppression. Quant à la littérature pour enfants, j'ai choisi trois livres que j’ai connus pendant mon enfance, c'est-à-dire des livres qui sont devenus comme une «langue maternelle» pour moi. En ce sens, ce travail est aussi de «l’anthropologie du champ natif». En outre, j’analyse les prémisses sous-jacentes qui se trouvent non seulement dans les trois livres, mais dans le déroulement des récits de l'état sauvage et de la civilisation dans la vie réelle, des analyses qui paraissent dans cette thèse sous la forme d'extraits d’un journal ethnographique. De même que j’examine la nature de la littérature ainsi que des structures civilisées qui domestiquent le monde au moyen de menaces de mort, je trace aussi la présence de ces récits dans l'expression scientifique (le récit malthusien-darwinien), religieuse, et dans autres expressions culturelles, et réfléchis sur les défis présentés par la théorie anarchiste (Kropotkine) ainsi que par les livres pour enfants écrits du point de vue sauvage, tels que ceux des Moomines.
Resumo:
Dans les recherches québécoises sur l’insertion en emploi des jeunes et dans les considérations de la population en général, il est bien ancré que le fait de décrocher du secondaire sans avoir obtenu de diplôme mène éventuellement et inévitablement à des difficultés d’insertion dans le marché du travail. Toutefois, lorsque l’on entreprend de vérifier l’origine de cette considération, on ne trouve que très peu de réponses, puisque les enquêtes sur l’insertion des jeunes au Québec et au Canada ont presque toujours ignoré les jeunes sans diplômes et les recherches traitant du sujet citent souvent des sources non probantes. Dans ce mémoire, nous avons utilisé une enquête récente qui n’est pas restreinte aux seuls diplômés pour étudier l’insertion des jeunes, en faisant l’hypothèse que les jeunes décrocheurs du secondaire du Québec et du reste du Canada n’ont pas significativement plus de chances de connaître des insertions en emploi difficiles que les jeunes n’ayant que ce niveau de diplôme à leur actif. Nos résultats ne nous permettent pas d’affirmer que les décrocheurs ne connaissent pas plus de problèmes d’insertion que les diplômés du secondaire, mais ils montrent tout de même que d’autres variables sont bien plus déterminantes. L’intérêt de ce mémoire ne s’arrête pas à la comparaison statistique entre les deux groupes de jeunes à l’étude, il se veut être une réflexion théorique sur la notion d’insertion, sur les raisons qui expliquent son caractère restrictif, et sur les paradigmes qui inspirent ce champ de recherche.
Resumo:
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.
Resumo:
Cette recherche porte sur la dimension interprétative de l'intégration européenne et sur son rôle dans la démocratisation au sein des pays postcommunistes. Je focalise mon attention sur la signification pour les gens desdits pays que revêtent la participation politique, la compétence politique, et l’action collective. Cette signification prend forme selon des circonstances spécifiques, agencées par les relations de pouvoir asymétriques avec l’Union européenne (UE). J’examine la littérature sur le rôle de l'intégration européenne dans la démocratisation des pays postcommunistes et je distingue deux paradigmes théoriques principaux : un premier qui met l'accent sur le processus institutionnel, l’autre sur le processus instrumental stratégique. Au sein de ces deux approches, je présente différents auteurs qui voient l'UE soit comme un facteur pro-démocratique, soit comme un facteur antidémocratique dans le contexte postcommuniste de transition politique. Cette recherche ne suit pas théoriquement et méthodologiquement les études contenues dans la revue de la littérature. Plutôt, elle s’appuie sur un modèle théorique inspiré des recherches de McFalls sur la réunification culturelle allemande après 1989. Ce modèle, sans négliger les approches institutionnelles et stratégiques, met l’accent sur d'autres écoles théoriques, interprétatives et constructivistes. Mes conclusions se basent sur les résultats de séjours d'étude dans deux pays postcommunistes : la Bulgarie, membre de l'UE depuis 2007, et la Macédoine, pays-candidat. J’ai recours à des méthodes qualitatives et à des techniques ethnographiques qui triangulent des résultats puisés à des sources multiples et variées pour exposer des trajectoires dynamiques de changement culturel influencées par l'intégration européenne. Les conclusions montrent sous quelles conditions les idéaux-types de changement politique conventionnels, soit institutionnel ou stratégique, représentent des modèles utiles. Je présente aussi leurs limitations. Ma conclusion principale est que l'intégration européenne représente un phénomène complexe dans le monde des significations. C’est un facteur qui est simultanément un amplificateur et un inhibiteur de la culture politique démocratique. Les gens créent des sous-cultures différentes où des interprétations multiples du processus d'intégration européenne mènent à des effets dissemblables sur la participation politique, la compétence et l’action collective. La conversation discursive entre les gens qui composent de telles sous-cultures distinctes peut produire des effets divergents au niveau national. Cette recherche n’est pas une analyse de l’UE comme mécanisme institutionnel ; elle ne pose ainsi pas l’UE comme une institution qui détermine directement le processus de démocratisation postcommuniste. Plutôt, elle s’intéresse au processus d’intégration européenne en tant qu’interaction qui affecte la culture politique au sein des pays postcommunistes, et à la manière dont cette dernière peut agir sur le processus de démocratisation. Mon point d’intérêt central n’est donc pas l’européanisation ou le processus de devenir « comme l’Europe », à moins que l’européanisation ne devienne une composante de la culture politique avec des conséquences sur le comportement politique des acteurs.
Resumo:
Les antipsychotiques sont utilisés en clinique depuis plus de 50 ans pour pallier aux symptômes de la schizophrénie. Malgré une recherche intensive, les mécanismes cellulaires et moléculaires responsables de l’effet clinique de cette médication demeurent encore nébuleux. Ces drogues sont reconnues comme des antagonistes des récepteurs D2 de la dopamine et peuvent moduler la transcription génique dans le striatum. Au cours des recherches qui ont mené à l'écriture de cette thèse, nous avons exploré l’expression de Nur77, un facteur de transcription de la famille des récepteurs nucléaires, afin de caractériser le rôle de la dopamine, la sérotonine, l’adénosine et le glutamate dans la régulation génique contrôlée par les antagonistes D2. En premier lieu, nous avons examiné l’impact de la co-administration d’agents sérotonergiques et adrénergiques sur l’expression de l’ARNm de Nur77 induite par l’halopéridol, un antipsychotique de première génération. Nous avons observé que le 8-OH-DPAT et le MDL11939 préviennent partiellement l’induction de Nur77 dans le striatum. Au contraire, l’idazoxan potentialise l’effet de l’halopéridol sur l’expression de Nur77 alors que le prazosin reste sans effet. Ces résultats démontrent que l’expression striatale de Nur77 induite par l’halopéridol peut être modulée à la baisse avec un agoniste 5-HT1A ou un antagoniste 5-HT2A. Par la suite, nous avons évalué dans divers paradigmes expérimentaux l’effet de l’éticlopride, un antagoniste spécifique D2, afin d’explorer davantage le mécanisme de l’effet transcriptionnel des antagonistes D2. Étonnamment, la suppression de l’isoforme D2L chez la souris D2L KO ne réduit pas la réponse de l’éticlopride dans le striatum. Par contre, une lésion corticale avec l’acide iboténique bloque l’effet de l’éticlopride sur la transcription de Nur77, suggérant un rôle du glutamate. La combinaison d’un antagoniste des récepteurs métabotropes du glutamate de types 5 (mGluR5) et d’un antagoniste des récepteurs de l’adénosine A2A abolit complètement l’augmentation de la transcription de Nur77 induit par l’éticlopride dans le striatum. La modulation directe de l’expression striatale de Nur77 par les récepteurs mGluR5 et A2A a été confirmée dans un modèle de cultures organotypiques de tranches cérébrales. Ces résultats démontrent clairement que la modulation de l’expression génique dans le striatum, à la suite d’un traitement avec un antagoniste D2 pourrait être indépendante d’une interaction directe avec les récepteurs D2 post-synaptiques, et reposerait plutôt sur son interaction avec les récepteurs D2 hétérosynaptiques des afférences corticostriées et l’activation subséquente des récepteurs post-synaptiques du glutamate et de l’adénosine. En résumé, nos résultats suggèrent que l’interaction des antipsychotiques atypiques avec les récepteurs 5-HT2A et 5-HT1A pourrait expliquer la différence dans le patron d’expression génique induit par ces drogues en comparaison avec les antipsychotiques typiques. De plus, nos résultats révèlent un nouveau mécanisme d’action des antagonistes D2 et supportent un rôle primordial du glutamate et de l’adénosine dans les effets des antipsychotiques de première génération.
Resumo:
La schizophrénie est une maladie complexe et a une prévalence approximative de 1% dans la population générale. Au sein des paradigmes neurochimiques, la théorie étiologique de la dopamine est celle qui prévaut alors que sont de plus en plus impliqués d’autres circuits de neurotransmission comme celui du glutamate. En clinique, les patients atteints de schizophrénie ont une grande propension à consommer des substances, particulièrement du cannabis. Nous avons cherché à étayer l’hypothèse d’un désordre du système cannabinoïde endogène, un important neuromodulateur. Ce mémoire propose d’abord dans un premier article une revue exhaustive de la littérature explorant le système endocannabinoïde et ses implications dans la schizophrénie. Puis, nous exposons dans un second article les résultats d’une recherche clinique sur les endocannabinoïdes plasmatiques dans trois groupes de sujets avec schizophrénie et/ou toxicomanie, pendant 12 semaines. Nous avons observé un effet miroir de deux ligands endocannabinoïdes, l’anandamide et l’oleylethanolamide, qui étaient élevés chez les patients avec double diagnostic et abaissés chez les toxicomanes, au début de l’étude. Au terme de l’étude, l’élévation des endocannabinoïdes s’est maintenue et nous avons supposé un marqueur de vulnérabilité psychotique dans un contexte de consommation. Finalement, nous avons analysé les résultats en les intégrant aux connaissances moléculaires et pharmacologiques ainsi qu’aux théories neurochimiques et inflammatoires déjà développées dans la schizophrénie. Nous avons aussi tenu compte des principales comorbidités observées en clinique: la toxicomanie et les troubles métaboliques. Cela nous a permis de proposer un modèle cannabinoïde de la schizophrénie et conséquemment des perspectives de recherche et de traitement.