676 resultados para NET frameworks


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The ethics of development comprises both fieldwork and consideration of the theoretical frameworks that guide practical action. In this article, such a framework for development ethics is presented, in an effort to link two traditions: those associated with economists Denis Goulet and Amartya Sen, and the present author's own conceptions regarding applied ethics, which are rooted in MacIntyre's concept of practice along with the discourse ethics originally proposed by Karl-Otto Apel and Jürgen Habermas. Within such a framework it becomes possible to emphasize the ethical element of human development work, the goal of the ethics of development.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il existe des associations entre les bars de danse érotique et les activités illicites, dans les écrits journalistiques et scientifiques. Nous avons vérifié ces associations en menant une description des crimes et déviances associés aux bars de danse érotique. Puis, nous avons tenté d’expliquer l’organisation et la structure de ces crimes, en nous appuyant sur l’approche du crime organisant et la théorie de l’écosystème du crime, de Felson (2006). Des entretiens semi-dirigés ont été conduits avec dix femmes danseuses, une femme shooter girl, un propriétaire, un portier et deux clients. Une analyse thématique à deux niveaux a montré que les délits se rapportent aux stupéfiants, à la prostitution, au proxénétisme, aux déviances, et à divers actes de violence. Des distinctions importantes, quant au contrôle selon les établissements sont notées. La structure et l’organisation des crimes peuvent s’expliquer par une logique propre aux relations symbiotiques et interdépendantes, tel que le suggère la théorie de l’écosystème du crime de Felson. Ainsi, la structure des délits peut prendre une forme mutualiste ou parasitaire. L’interrelation propre au neutralisme explique l’organisation générale de ces délits. Le milieu criminogène de la danse érotique offre de multiples opportunités, qui seront saisies par les acteurs motivés, en vue de réaliser un bénéfice personnel. Deux constats étonnants : les données suggèrent que l’implication des organisations criminelles est relativement limitée; et les conséquences occasionnées par les activités du milieu présentent un caractère inquiétant, particulièrement pour les femmes. Des efforts en matière de prévention situationnelle seraient appropriés pour réduire les opportunités.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectifs. L’objectif de ce mémoire est d’améliorer les connaissances quant à l’effet des interventions policières sur la violence imputable aux bandes criminelles. À travers l’évaluation des cinq plus importantes opérations policières réalisées entre 1991 et 2008 au Québec, trois modèles conceptuels sont confrontés : 1) celui du marché qui prévoit une hausse des affrontements entres bandes rivales dont le but est de prendre possession d’un marché criminel maintenant disponible en raison du retrait d’un joueur clé, 2) celui de la dissuasion qui prévoit une baisse des violences criminelles, et 3) celui de l’attrition qui envisage une baisse des violences en raison de l’essoufflement des bandes. Méthodologie. Les données de cette étude proviennent de l’Enquête générale sur les homicides de Statistique Canada. Différents taux d’homicides furent agrégés sur une base annuelle pour différentes provinces et régions métropolitaines de recensement. Des analyses de séries chronologiques interrompues furent ensuite réalisées pour estimer l’effet des interventions policières. Résultats. L’opération Printemps 2001 est la seule intervention policière à être associée à une baisse significative des homicides reliés aux bandes criminelles. « Sans-Frontière », « Colisée » et les deux escouades Carcajou de Montréal et de Québec, n’ont produit aucun effet préventif notable. Au contraire, Carcajou Montréal et Québec ont été associées à une hausse des homicides liés aux gangs. Conclusion. Les présents résultats appuient davantage la thèse de la dissuasion que celles du marché ou de l’attrition. Afin de produire un effet de dissuasion, les résultats suggèrent que l’intervention policière doit : 1) cibler un nombre important de membres de l’organisation criminelle, 2) s’attaquer aux têtes dirigeantes, 3) assurer la neutralisation des membres de l’organisation, et 4) assurer la diffusion du message pénal auprès des délinquants concernés. D’autres études sont toutefois nécessaires pour estimer l’effet des interventions policières dans d’autres contextes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comme à l’approche d’un tsunami, l’incidence grandissante des allergies affecte maintenant plus de 30% de la population des pays développés. Étant la cause de nombreuses morbidités et un risque significatif de mortalité, les allergies nécessitent des dépenses exorbitantes au système de santé et constituent une des plus importantes sources d’invalidité. Cette thèse a pour but de contribuer à faciliter la prise de décision éclairée dans le développement de politiques en santé en lien avec cette maladie immunitaire chronique en utilisant des principes d’éthique comme outils pour guider le développement de politiques en santé. Le premier chapitre démontre le présent déficit d’analyses des enjeux éthiques en allergologie et démontre de quelle façon les réflexions en éthique peuvent guider le développement de politiques et l’élaboration de stratégies appliquées aux allergies. Les chapitres qui suivront présentent des applications spécifiques des principes d’éthiques ciblant des contextes précis comme des méthodes qui fournissent des outils de réflexion et des cadres théoriques qui peuvent être appliqués par les décideurs pour guider des interventions en santé concernant les allergies et les conditions de co-morbidité reliées. Le second chapitre présente un cadre théorique pour l’évaluation et la priorisation d’interventions en santé publique par la diminution des allergènes présents dans l’environnement basées sur des théories de justice sociale. Les critères entourant les politiques d’évaluation se concentrent sur les enjeux éthiques référant aux populations vulnérables, sur une distribution plus égale des bénéfices pour la santé, et sur le devoir d’éviter la stigmatisation. Le troisième chapitre offre aux administrateurs et au personnel infirmier du réseau scolaire un cadre décisionnel pour guider le développement de politiques efficaces et éthiquement justifiables concernant les allergies alimentaires pour les écoles. Dans ce contexte, les principes de base d’éthique en santé publique et en bioéthique - par exemple, l’empowerment des populations vulnérables dans la prise en charge de leur santé et la protection de la confidentialité du dossier médical - servent d’outils pour évaluer les politiques. Le dernier chapitre emploie les principes de base de recherche en éthique comme méthode pour développer un argumentaire en faveur de la réforme des réglementations entourant la production de médicaments immunothérapeutiques. La nécessité éthique d’éviter les risques de méfait à l’endroit du sujet humain dans la recherche permettra de servir de guide pour structurer de futures politiques en santé publique en égard à la production d’immunothérapeutiques à l’échelle mondiale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les structures avec des lieurs sont très communes en informatique. Les langages de programmation et les systèmes logiques sont des exemples de structures avec des lieurs. La manipulation de lieurs est délicate, de sorte que l’écriture de programmes qui ma- nipulent ces structures tirerait profit d’un soutien spécifique pour les lieurs. L’environ- nement de programmation Beluga est un exemple d’un tel système. Nous développons et présentons ici un compilateur pour ce système. Parmi les programmes pour lesquels Beluga est spécialement bien adapté, plusieurs peuvent bénéficier d’un compilateur. Par exemple, les programmes pour valider les types (les "type-checkers"), les compilateurs et les interpréteurs tirent profit du soutien spécifique des lieurs et des types dépendants présents dans le langage. Ils nécessitent tous également une exécution efficace, que l’on propose d’obtenir par le biais d’un compilateur. Le but de ce travail est de présenter un nouveau compilateur pour Beluga, qui emploie une représentation interne polyvalente et permet de partager du code entre plusieurs back-ends. Une contribution notable est la compilation du filtrage de Beluga, qui est particulièrement puissante dans ce langage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les référentiels de compétences et la formation professionnelle des enseignants sont devenus des sujets qui suscitent beaucoup d’intérêt de la part de plusieurs chercheurs en éducation, dont Paquay (1994), Perrenoud (2001) et Berchoud (2007). La présente étude est une recherche-développement qui se donne pour objectif principal de concevoir et d’élaborer un référentiel de compétences pour les futurs enseignants de français langue étrangère (FLE). Pour y parvenir, notre démarche générale consistait à partir de l’analyse des référentiels de formation des enseignants ainsi que des standards de performance que nous pouvions déjà trouver partout dans le monde. Cette analyse nous a amenée à repérer les points communs et, par la suite, à les synthétiser pour trouver les éléments pertinents qui pourraient nous inspirer pour une première ébauche de notre référentiel. Ainsi, nous avons dressé une liste des domaines de performance nécessaires à la formation des futurs enseignants que nous avons repérés dans les écrits. Pour enrichir cette liste, nous avons mené des consultations auprès de quelques experts en Égypte où le français est enseigné comme deuxième langue étrangère dans les écoles publiques. Et, à l’aide de trois outils de recherche, les entrevues individuelles, le focus-group et le questionnaire, nous avons pu développer et valider des standards de performance pertinents à chacun des domaines identifiés ainsi que des indicateurs pour chaque standard. L’analyse statistique des données recueillies nous a permis d’en faire une description globale, de confirmer des points de convergence de façon significative, et aussi de repérer des éléments sujets à discussion. Ainsi, nous sommes parvenue à élaborer un référentiel qui comprend trois composantes principales : les domaines de performance, les standards et les indicateurs. Ce référentiel contient vingt standards de performance essentiels à la formation des futurs enseignants de FLE. Les standards sont regroupés sous six catégories appelées domaines : compétence linguistique, communication, processus d’enseignement, gestion de classe, évaluation et professionnalité. Le référentiel comprend aussi soixante-trois indicateurs reliés aux standards retenus. Le résultat de notre recherche est donc ce référentiel de compétences destiné aux futurs enseignants de FLE et dont les éléments ont été validés en Égypte. Nous croyons que cet outil servira, d’une part, de cadre de référence pour les professeurs des facultés d’éducation surtout lors du choix de contenu de leurs cours et, d’autre part, comme un guide pour les futurs enseignants qui leur permettra de s’autoévaluer et de se situer par rapport aux différents standards de performance identifiés dans ce référentiel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire veut, de prime abord, porter un regard sur la rue Saint-Laurent qui, depuis ses débuts, joue un rôle fondamental dans le tissu montréalais. Grâce à son visage bigarré et à son hétérogénéité, elle a su marquer l’histoire de la métropole et alimenter l’imaginaire d’un bon nombre d’écrivains. Michel Tremblay demeure un de ceux qui, dans l’ensemble de son oeuvre, explore le plus abondamment les clairs-obscurs et l’étrangeté de ce corridor urbain. Son écriture à la fois crue, marginale et théâtrale, s’inscrit pertinemment dans l’univers de la Main et, plus particulièrement, dans la partie du Redlight où aboutissent et se meuvent ses personnages les plus colorés. Ayant délaissé leur milieu d’origine, ces derniers s’imposent des changements radicaux afin de mieux cadrer avec la nature et les activités de leur terre d’accueil. Ce mémoire visera donc à penser l’« identité trafiquée » des personnages de Tremblay comme condition de leur inscription sur la rue Saint-Laurent. En outre, il sera question de l’esprit théâtral de cette artère qui pousse les travestis et les artistes en tout genre à se donner « en représentation » et à incarner un rôle de composition. Par l’entremise des masques – notamment celui du déguisement, du maquillage et du travestissement, mais aussi celui de la langue qu’ils modulent afin de mieux coller à leur personnage –, ils projettent une identité individuelle instable qui dévoile l’ambiguïté qui les habite. Plus largement, la présente étude s’intéressera à l’ensemble des marginaux qui arpentent la Main et qui cherchent à (re)définir leur identité culturelle, au milieu des cultures américaine et française. Bien qu’elle essaie de se forger une identité propre, cette collectivité peine à se définir sans calquer les modèles dont elle tente de se dissocier. Une telle contradiction évoque à bien des égards le paradoxe auquel se sont heurtées les communautés immigrantes de la rue Saint-Laurent, dont la lente adaptation à la culture nord-américaine s’est faite non sans un difficile constat de pertes et de gains face à la culture d’origine. Il s’agira donc de voir comment ces groupes, en apparence irréconciliables, trouvent dans le même univers un contexte favorable pour mener leur quête identitaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:


Depuis les années 2000, nous observons de plus en plus de pays en développement (PED) hôtes de mégaévénements. En accueillant un mégaévénement en leur sol, les PED espèrent améliorer leur cadre urbain et attirer des investissements étrangers. Ceci étant dit, les retards en termes d’infrastructures et d’équipements que connaissent ces pays et les stricts cadres normatifs imposés par des organismes internationaux comme la FIFA, nous amènent à questionner la possibilité d’intégrer les aménagements mégaévénementiels, à leur contexte local. En ce sens, le processus de planification, dans lequel les cadres normatifs externes et locaux sont négociés, peut être vu comme un moment charnière ayant une incidence sur le potentiel de reconversion. Dans le cadre de ce mémoire, nous avons entamé une réflexion à ce sujet en examinant le processus de planification d’un aménagement mégaévénementiel, le Green Point Urban Park (GPUP) à Cape Town, et son incidence sur son potentiel de reconversion. Plus précisément, nous allons, en premier lieu, décrire le processus de planification du site, nous allons par la suite évaluer son potentiel de reconversion, puis nous allons faire ressortir des liens entre le processus de planification et le potentiel de reconversion des aménagements mégaévénementiels. En somme, notre travail met en évidence une relation entre, d’une part, la prépondérance du cadre normatif imposé par l’organisme international et la dynamique du système d’acteurs au moment de la planification du GPUP et, d’autre part, la difficile reconversion de ce dernier après la Coupe du monde de 2010.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.