965 resultados para Approche combinatoire
Resumo:
Ce mémoire propose d'étudier la portée des discours présidentiels sur l'essor d'une nation. Plus précisément, cette recherche explore les pratiques rhétoriques par lesquelles Nicolas Sarkozy, à titre de Président de l'Union européenne du 1er juillet 2008 au 31 décembre 2008, a tenté de raviver l'intérêt de la population française pour le développement de l'Europe. Nous considérons, dans un premier temps, le contexte politique particulier qui précède la nomination de Nicolas Sarkozy en juillet 2008 ainsi que les deux crises internationales majeures qui ont ponctué sa présidence. Nous explorons ensuite comment la littérature scientifique sur la rhétorique présidentielle en temps de crise peut nous permettre de comprendre la portée de ses discours sur un auditoire français quelque peu désabusé des questions de politique européenne. Après avoir sélectionné et justifié le choix des cinq discours présidentiels de notre corpus, nous introduisons notre méthode d‟analyse basée sur l'approche rhétorique de la « Close textual analysis ». Nous présentons enfin nos analyses qui mettent en évidence les principaux procédés rhétoriques des cinq discours de notre corpus. En conclusion, nous considérons comment ces différents procédés rhétoriques peuvent contribuer à l'essor de la communauté européenne.
Resumo:
L’accumulation de triglycérides (TG) dans les hépatocytes est caractéristique de la stéatose hépatique non-alcoolique (SHNA). Cette dernière se produit dans diverses conditions dont le facteur commun est le métabolisme anormal des lipides. Le processus conduisant à l'accumulation des lipides dans le foie n’a pas encore été totalement élucidé. Toutefois, des lipides s'accumulent dans le foie lorsque les mécanismes qui favorisent leur exportation (oxydation et sécrétion) sont insuffisants par rapport aux mécanismes qui favorisent leur importation ou leur biosynthèse. De nos jours il est admis que la carence en œstrogènes est associée au développement de la stéatose hépatique. Bien que les résultats des études récentes révèlent l'implication des hormones ovariennes dans l'accumulation de lipides dans le foie, les mécanismes qui sous-tendent ce phénomène doivent encore être étudiés. En conséquence, les trois études présentées dans cette thèse ont été menées sur des rates ovariectomizées (Ovx), comme modèle animal de femmes post-ménopausées, pour étudier les effets du retrait des œstrogènes sur le métabolisme des lipides dans le foie, en considérant l'entraînement physique comme étant un élément positif pouvant contrecarrer ces effets. Il a été démontré que l'entraînement physique peut réduire l'accumulation de graisses dans le foie chez les rates Ovx. Dans la première étude, nous avons montré que chez les rates Ovx nourries à la diète riche en lipides (HF), les contenus de TG hépatiques étaient élevées (P < 0.01) comparativement aux rates Sham, 5 semaines après la chirurgie. Le changement de la diète HF par la diète standard (SD) chez les rates Sham a diminué l’accumulation de lipides dans le foie. Toutefois, chez les rates Ovx, 8 semaines après le changement de la HF par la SD le niveau de TG dans le foie était maintenu aussi élevé que chez les rates nourries continuellement avec la diète HF. Lorsque les TG hépatiques mesurés à la 13e semaine ont été comparés aux valeurs correspondant au retrait initial de la diète HF effectué à la 5e semaine, les niveaux de TG hépatiques chez les animaux Ovx ont été maintenus, indépendamment du changement du régime alimentaire; tandis que chez les rats Sham le passage à la SD a réduit (P < 0.05) les TG dans le foie. Les mêmes comparaisons avec la concentration des TG plasmatiques ont révélé une relation inverse. Ces résultats suggèrent que la résorption des lipides au foie est contrée par l'absence des œstrogènes. Dans cette continuité, nous avons utilisé une approche physiologique dans notre seconde étude pour investiguer la façon dont la carence en œstrogènes entraîne l’accumulation de graisses dans le foie, en nous focalisant sur la voie de l'exportation des lipides du foie. Les résultats de cette étude ont révélé que le retrait des œstrogènes a entraîné une augmentation (P < 0.01) de l’accumulation de lipides dans le foie en concomitance avec la baisse (P < 0.01) de production de VLDL-TG et une réduction l'ARNm et de la teneur en protéines microsomales de transfert des triglycérides (MTP). Tous ces effets ont été corrigés par la supplémentation en œstrogènes chez les rates Ovx. En outre, l'entraînement physique chez les rates Ovx a entraîné une réduction (P < 0.01) de l’accumulation de lipides dans le foie ainsi qu’une diminution (P < 0.01) de production de VLDL-TG accompagnée de celle de l'expression des gènes MTP et DGAT-2 (diacylglycérol acyltransférase-2). Des études récentes suggèrent que le peptide natriurétique auriculaire (ANP) devrait être au centre des intérêts des recherches sur les métabolismes énergétiques et lipidiques. Le ANP est relâché dans le plasma par les cellules cardiaques lorsque stimulée par l’oxytocine et exerce ses fonctions en se liant à son récepteur, le guanylyl cyclase-A (GC-A). En conséquence, dans la troisième étude, nous avons étudié les effets du blocage du système ocytocine-peptide natriurétique auriculaire (OT-ANP) en utilisant un antagoniste de l’ocytocine (OTA), sur l'expression des gènes guanylyl cyclase-A et certains marqueurs de l’inflammation dans le foie de rates Ovx. Nous avons observé une diminution (P < 0.05) de l’ARNm de la GC-A chez les rates Ovx et Sham sédentaires traitées avec l’OTA, tandis qu’une augmentation (P < 0.05) de l'expression de l’ARNm de la protéine C-réactive (CRP) hépatique a été notée chez ces animaux. L’exercice physique n'a apporté aucun changement sur l'expression hépatique de ces gènes que ce soit chez les rates Ovx ou Sham traitées avec l’OTA. En résumé, pour expliquer l’observation selon laquelle l’accumulation et la résorption de lipides dans le foie dépendent des mécanismes associés à des niveaux d’œstrogènes, nos résultats suggèrent que la diminution de production de VLDL-TG induite par une déficience en œstrogènes, pourrait être un des mecanismes responsables de l’accumulation de lipides dans le foie. L’exercice physique quant à lui diminue l'infiltration de lipides dans le foie ainsi que la production de VLDL-TG indépendamment des niveaux d'œstrogènes. En outre, l'expression des récepteurs de l’ANP a diminué par l'OTA chez les rates Ovx et Sham suggérant une action indirecte de l’ocytocine (OT) au niveau du foie indépendamment de la présence ou non des estrogènes. L’axe ocytocine-peptide natriurétique auriculaire, dans des conditions physiologiques normales, protègerait le foie contre l'inflammation à travers la modulation de l’expression de la GC-A.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Résumé. Le mémoire s’intéresse à l’émergence historique de la coopération économique régionale comme forme non-hégémonique de coopération. Nous y proposons une approche alternative au problème de l’origine de la coopération systémique, par rapport à la conception d’origine hégémonique de la coopération systémique, propre aux théories néolibérale et néoréaliste. Plutôt que par le biais des théories du marché, l’origine de la coopération est approchée par le biais des processus caractérisant l’anarchie-même tel le processus de construction anarchique des formes de guerre. Et plus spécifiquement, des formes de guerre dont l’usage soumet la structure anarchique à des contraintes extrêmes, mettant celle-ci en crise, exemplifiée par la chute de la puissance hégémonique, la fin d’un système hégémonique et le début de coopération systémique non-hégémonique, de nature plus régionale et économique. En privilégiant l’approche historique, nous insistons notamment sur l’impact critique du commerce au loin et du crédit international dans la construction par la structure anarchique des formes de guerre que la puissance hégémonique ne peut plus supporter.
Resumo:
Ce mémoire de maîtrise s’intéresse à la portée et aux limites de la participation publique à la gestion des ressources naturelles. Plus spécifiquement, une étude du cas de la Commission Coulombe est réalisée afin de déterminer, d’une part, dans quelle mesure la participation délibérative a favorisé l’émergence de nouveaux discours et quels ont été ses effets politiques, d’autre part. L’argumentation se fonde sur une approche discursive-institutionnelle et, plus précisément, sur la notion d’arrangement politique développé par Bas Arts et Pieter Leroy. L’étude de la Commission Coulombe révèle que la participation délibérative a permis de renforcer la légitimité des institutions étatiques, elle a encouragé l’émergence de préoccupations et de notions nouvelles, elle a eu des effets sur l’élaboration des règles, des politiques et des programmes et a permis une certaine redéfinition des rapports de pouvoirs entre les acteurs du régime forestier québécois. Ses effets sont cependant ambivalents en termes de démocratisation de la gestion publique. Les pouvoirs publics ont utilisé la Commission pour rétablir leur crédibilité, justifier des décisions impopulaires et faire avancer les grandes orientations du gouvernement. De plus, les acteurs qui ont acquis le plus de pouvoir et les enjeux qui ont émergés de façon la plus marquée sont ceux qui étaient favorisés par le contexte politique de modernisation de l’État québécois.
Resumo:
Cette mémoire a pour objectif de mettre en évidence le délaissement dont a souffert et souffre encore dans l’actualité l’enseignement de la prononciation dans les cours d’espagnol comme langue étrangère (ELE), réaffirmer son importance et défendre la nécessité de son intégration dans les salles de classe. C’est un fait qu’avec l’actuelle approche communicative et « par devoirs », les étudiants acquièrent des connaissances supérieures en langue écrite et des résultats peu satisfaisants dans la prononciation. D’autre part, les enseignants ne comptent pas sur des méthodes d’intégration de la prononciation de ces approches, et la carence de matériels se fait plus qu’évidente. Les conceptions curriculaires actuelles n’ont pas intégré de forme naturelle l’enseignement de la prononciation dans ses exposés méthodologiques. La sélection et analyse de certains des manuels d’enseignement d’ELE, avec ce dont on travaille actuellement dans la province du Québec, confirme ces carences. Dans la dernière partie du travail on présente une sélection d’exercices que l’on considère utiles pour l’enseignement et le développement de la prononciation, incluant les éléments suprasegmentaires, d’une façon ludique, dans un contexte réel et communicatif et de manière intégrée. Une didactique de l’enseignement qui prête attention au système formel de la langue, la grammaire et le lexique, peut aussi contempler l’enseignement de la prononciation depuis la même perspective. L’important c’est qu’elle soit intégrée comme une phase supplémentaire du processus d’apprentissage, et cesse d’être une matière à repasser dans les curriculums.
Resumo:
La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche en explorant l’espace des préfixes par programmation dynamique, une solution coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet (Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus, ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art.
Resumo:
Ce mémoire vise à élucider les implications de l’intégration européenne pour les diplomaties nationales. À partir d’une approche sociologique axée sur les pratiques des individus, une étude de cas est menée sur la diplomatie autrichienne, pour la période allant de 1987 à 2009. S’appuyant sur une vingtaine d’entretiens conduits en 2009 à Vienne, cette étude rend compte, d’une part, des changements engendrés par l’intégration européenne de l’Autriche au regard des pratiques et des représentations de ses diplomates concernant la politique de neutralité. D’autre part, nous relatons le processus d’adaptation des diplomates et du ministère des Affaires étrangères autrichiens aux exigences pratiques et aux dynamiques sociales de l’interaction diplomatique au sein de l’Union européenne (UE). En somme, notre étude montre que les diplomates impliqués dans la gestion des affaires (tant internes qu’externes) de l’UE convergent autour d’un certain nombre de règles et de représentations sociales; cette dynamique a des implications substantielles pour les diplomaties nationales intégrées relativement tardivement dans l’UE, comme ce fut le cas pour l’Autriche.
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.
Resumo:
Ce projet doctoral cherche à élaborer une approche éthique d’accompagnement des jeunes adultes (20-35 ans) en milieu pastoral. Prenant son point de départ dans la méthode praxéologique, il déploie une observation de la pratique d’un certain type d’accompagnement pastoral, puis réfléchit sur des traits de la jeunesse actuelle, surtout québécoise. Bien que cherchant à affirmer leur autonomie, les jeunes qui consultent ponctuellement un prêtre cherchent souvent des réponses à leurs dilemmes moraux. La thèse s’inspire des théoéthiciens nord-américains, Stanley Hauerwas et Craig Dykstra pour dépasser la préoccupation du « quoi faire ». En effet, ces auteurs principaux de la thèse se centrent sur la personne, la réalisation de son soi et le type d’homme ou de femme qu’elle veut être. L’accent est donc mis sur l’être, la totalité de la personne, et non seulement sur le faire. Une surenchère de l’importance du « faire » et de l’« action » renvoie à la fois à notre société post-technologique, centrée sur la productivité de la personne et à une morale catholique prescriptive. Néanmoins, l’éthique du caractère propose un chemin de conversion de la question de savoir « quoi faire » dans celle de savoir « comment vivre ». Sur le plan théologique, elle recentre et réinterprète des aspects essentiels du christianisme, soit les récits, la tradition comme histoire, communauté et imagination. Cette approche revitalise le paysage éthique et le style d’accompagnement pastoral auprès des jeunes adultes. En tant que prêtre catholique souvent consulté par des gens de cette catégorie d’âge (20-35 ans), notre projet de thèse se veut inspirateur d’une nouvelle pratique d’accompagnement éthico-pastoral.