30 resultados para Jeu sérieux
Resumo:
Cette étude qualitative vise à mieux comprendre la perception qu'ont des enseignantes et des enseignants québécois de leurs caractéristiques personnelles en jeu dans leur façon d'être en relation éducative. Tant dans le milieu pratique que dans les écrits scientifiques, on reconnaît l'incidence de ce que l'enseignant est personnellement sur la relation qu'il vit avec ses élèves. Or, les écrits sont peu éclairants quant à la perception que peuvent avoir les enseignants eux-mêmes du phénomène. Les résultats révèlent deux types de caractéristiques personnelles participant à leur façon d'être en relation éducative: celles qui sont individuelles ou de base, qui caractérisent les enseignants depuis toujours, et qui sont peu sujettes à changement; et celles qui sont liées au vécu professionnel, qui peuvent changer avec l'expérience professionnelle et personnelle. Selon le discours des enseignants, on assisterait à un phénomène d'intégration de ses dimensions personnelles et professionnelles, advenant avec l'âge et l'expérience.
Resumo:
De 1900 à 1966, Lionel Groulx, prêtre, historien, écrivain, conférencier, professeur, a signé 176 textes d'une vingtaine de pseudonymes différents. Le premier chapitre du mémoire résume d'abord les positions théoriques qu'ont adoptées des chercheurs comme Genette, Laugaa et Jeandillou en ce qui concerne la pseudonymie. Le récit de l'aventure pseudonyme de Groulx commence au deuxième chapitre, alors que le jeune professeur du College de Valleyfield, surtout pour éviter les représailles de son évêque, recourra à la pseudonymie pour signer des textes patriotiques. En 1915, Groulx quitte Valleyfield pour Montréal. Dès 1917, il collabore à l'Action française, dont il devient le directeur en 1920. Sans contredit, l'étude de la pseudonymie de Groulx de 1917 a 1929 prouve qu'il est bel et bien "L'Homme à tout faire" de la revue, comme le démontre le troisième chapitre. Le quatrième et dernier chapitre analyse la période 1930 à 1966. [Résumé abrégé par UMI]
Resumo:
L'objet d'étude de cette recherche était l'enseignement de la grammaire au 2e cycle du primaire. Les chercheuses ont constaté un écart considérable du nombre de notions prescrites par le Programme de formation de l'école québécoise (2001) entre la 2e année du 1 er cycle et la 1 re année du 2e cycle. De plus, dans les manuels scolaires du 2e cycle, une grande majorité des nouveaux savoirs essentiels était abordée dans ceux de la 1re année de ce cycle. L'année suivante, peu de nouvelles notions sont travaillées. Ce qui explique que plusieurs élèves éprouvent des difficultés d'apprentissage en grammaire dès le début du 2e cycle. Afin d'améliorer cette situation, les notions de grammaire pourraient être travaillées différemment de ce que proposent les manuels puisque le Programme de formation (2001) est conçu sur deux ans. L'objectif des chercheuses était donc de bien outiller les enseignants pour travailler la grammaire du 2e cycle d'une façon différente. Pour ce faire, la création d'un jeu éducatif qui tient compte de la différenciation pour l'enseignement de la grammaire au 2e cycle pouvait être un bon outil.
Resumo:
À l'origine de ce projet de recherche se trouve le constat, effectué tant par le directeur que par les enseignantes et les enseignants de l'école Le Jardin-des-Lacs, des limites d'efficacité d'un système de type behavioral "opérant" dans la gestion des comportements sociaux des enfants hors de la salle de classe. Face aux confins d'efficacité de ce système, au début de l'année scolaire 1994-95, la Direction de l'école ainsi que le personnel enseignant du milieu nous demandaient d'élaborer un programme d'intervention "sur le fait". Ce programme est destiné à faciliter l'apprentissage et le maintien de comportements respectueux du système de règles en vigueur lorsque les élèves utilisent les aires de circulation et de détente de l'école. Donc, lorsqu'ils sont hors de la salle de classe. Les interventions se situent en contexte ludique, afin de faciliter la prise de conscience de l'intérêt et des avantages qu'il y a à respecter le règlement en vigueur. Par ailleurs, le contexte ludique fournit à l'intervenante une situation privilégiée d'observation des mécanismes sous-tendant chez l'enfant la motivation au respect de règles sociales qui lui sont externes ou, au contraire, à la formulation, la négociation ou l'application de règles lorsqu'il est en situation d'interaction avec des pairs. Pour des raisons d'efficacité, nous avons centré notre intervention sur le développement de conduites adéquates en regard du respect d'un règlement scolaire particulier : le règlement du silence dans les aires de circulation dans la mesure où les infractions à ce dernier forme la source principale d'accumulation de points de démérite chez les élèves de premier cycle à l'école Le-Jardin-des-Lacs.
Resumo:
Les novices en enseignement, particulièrement celles et ceux qui oeuvrent en adaptation scolaire, doivent composer avec de nombreux rôles dès leur entrée en milieu professionnel. Cette réalité multiplie les occasions de rencontrer des problèmes d'ordre éthique à l'école, soit des problèmes pour lesquels il n'existe pas de réponses ou de balises claires, qui exigent une prise de décisions et un choix d'actions qui doivent tenir compte de plusieurs éléments dont il faudra déterminer l'importance et, par conséquent, qui génèrent des conflits de valeurs. Être capable de résoudre un problème éthique implique au départ de développer la capacité à reconnaître les dimensions présentes à l'intérieur du problème. Nous avons dégagé quatre dimensions généralement présentes dans l'analyse d'un problème éthique: les personnes impliquées, les valeurs en jeu, les principes de conduite professionnelle appropriée et le cadre professionnel.Les personnes impliquées, puisque les professionnelles et professionnels sont amenés à anticiper les conséquences de leurs actions sur le bien-être des personnes concernées.Les valeurs en jeu, soit les structures internes sur lesquelles chaque individu se réfère spontanément, que ce soit des valeurs acquises durant l'enfance, dans l'expérience personnelle ou dans l'expérience professionnelle.Les principes de conduite professionnelle appropriée qui sont adoptés à titre de références par les membres de la communauté enseignante. Finalement, le cadre professionnel, car l'enseignante et l'enseignant s'inscrivent dans un cadre qui repose sur des lois et des normes des milieux. L'objectif de cette recherche a été de mettre en évidence les dimensions examinées par des enseignantes et des enseignants en adaptation scolaire en insertion professionnelle lorsqu'ils sont devant un problème éthique à l'école. La méthodologie utilisée était de nature qualitative et la cueillette de données a été effectuée par le moyen d'entrevues individuelles semi-dirigées.Les résultats obtenus à la suite de deux phases de collecte nous ont permis de mettre en évidence, entre autres, que certaines dimensions étaient examinées par les participantes de manière plus approfondie que d'autres devant des problèmes éthiques et dégager le sens accordé à chacune des dimensions par les participantes. Nous avons aussi analysé certaines préoccupations relatives à l'insertion professionnelle ayant émergé durant les entrevues.
Resumo:
Pour montrer comment s'articulent les mécanismes de l'interprétation dans la chanson populaire, nous nous sommes inspirée [inspirés] de travaux de sociologues qui se sont penchés sur la chanson depuis une vingtaine d'années (Authelain, Buxton, Calvet, Giroux, Hennion, Frith, Middleton) ou sur le marché des biens symboliques (Bourdieu), ainsi que de la sémiologie musicale de Jean-Jacques Nattiez. Comme lui, nous avons identifié un processus poïétique, un niveau neutre et un processus esthésique dans la pratique de la chanson, processus qui se dédoublent dans la chanson populaire selon le point d'ancrage de l'analyse: la partition (la trace, constituant un premier"niveau neutre") puis la chanson interprétée (ou résultat musical, qui constitue un second"niveau neutre"). Nous avons par la suite identifié les différents lieux où entre en jeu l'interprétation: chez les exécutants (musiciens et interprètes) qui actualisent la partition, produisant ainsi la chanson interprétée; dans le processus de production/promotion, où s'élaborent l'image de marque de l'artiste et les discours promotionnels; chez le public où l'interprétation apparaît aussi sous ses deux facettes, c'est-à-dire l'exécution possible par les auditeurs/spectateurs, mais surtout la lecture que propose le discours critique. Un exemple précis, l'album D'instinct (1995) de l'auteur/compositeur/interprète Richard Séguin, nous a permis de mettre à l'épreuve ce modèle ainsi qu'une méthode d'analyse qui permet à la fois de se pencher sur une chanson et sur la chanson. Dans un premier temps, nous avons analysé une chanson à partir de la partition puis de la chanson interprétée (sous forme de chanson, d'album, de vidéoclip et de spectacle), sans tenir compte des discours que l'on tient sur cette chanson. Dans un deuxième temps, notre attention s'est portée sur la chanson, analysant l'objet"chanson" transformé par les discours, puis les discours eux-mêmes. Ces analyses nous ont permis de nous pencher sur l'interprétation, d'abord comme exécution (de la partition), et surtout comme lecture, puis de schématiser le réseau des discours, promotionnels et critiques, qui circulent entre l'artiste (et sa musique) et l'auditeur/spectateur. Notre recherche s'intéresse ainsi de façon nouvelle à la chanson populaire et la méthode d'analyse que nous proposons permet de tenir compte de la spécificité de son objet: une approche multidisciplinaire s'imposait pour étudier un phénomène pluridimensionnel comme la chanson. Aussi, les résultats de nos analyses confirment que le modèle et la méthode sont opératoires, mais surtout, ils laissent entrevoir de nombreuses possibilités d'analyses nouvelles d'une/de la chanson, analyses qui permettraient d'en saisir le caractère stylistique, les qualités esthétiques, etc. et même, il nous semble qu'ils pourraient s'avérer tout aussi opératoires appliqués à d'autres corpus."--Résumé abrégé par UMI
Resumo:
Une évaluation de l'évaluabilité du programme d'intervention Son-Rise a été réalisée. Ce programme de stimulation relationnelle, basé à la maison et dirigé par les parents, s'adresse aux enfants autistes et à leur famille, et vise à développer les habiletés sociales par le jeu en suivant les intérêts de l'enfant. Le peu de littérature scientifique disponible au sujet de ce programme fait ressortir la pertinence de l'évaluer en commençant par une évaluation de son évaluabilité. Une analyse des documents principaux du programme ainsi que dix entrevues avec des parties prenantes variées ont mené à des recommandations pour les évaluations futures. Le programme Son-Rise serait suffisamment bien construit et stable pour être évaluable, mais son contexte d'implantation pourrait être un obstacle à l'évaluation.
Resumo:
Le présent mémoire traite d'une problématique reposant sur les modalités de la présence de l'autoreprésentation dans Manifestif , le premier album des Loco Locass. Postulant qu'elle y est particulièrement dense, on poursuit ici l'objectif de soumettre les textes du recueil à une analyse systématique de l'autoréférence. Pour ce faire, nous nous appuyons sur les principaux théoriciens/théoriciennes de l'autoréférence (et notions voisines, telle l'autoreprésentation), de Dallenbach à Paterson, en passant par Ricardou, Hutcheon, etc., et adaptons la grille de Janet M. Paterson, élaborée pour l'étude du narratif, à l'étude du texte lyrique. Ainsi armée, nous passons au crible tous les textes de l'album Manifestif , ainsi que leur accompagnement paratextuel. La structure du mémoire s'articule à même l'outil méthodologique, scrutant d'abord l'appareil autoréférentiel sur le plan de l'énonciation - plus précisément l'instance énonciative -, puis de l'énoncé, enfm de l'instance énonciataire. En ressort un relevé complet de la présence d'autoréférence et de ses effets. Ce qui nous permet de conclure que le phénomène poétique particulier de l'autoréférence éclaire les textes du recueil parce qu'il constitue un jeu (on pourrait même parler d'appareil) de surdétermination qui surpasse l'oeuvre.
Resumo:
Cette recherche phénoménologique s’adresse aux enseignants qui vivent des difficultés professionnelles. Plus précisément, elle étudie l’impact de l’identification des subpersonnalités en utilisant la méthode de l’étude de cas. Les données sont recueillies grâce à des entrevues nous permettant de voir le cheminement de cinq personnes qui ont travaillé avec la technique des subpersonnalités. Ces dernières représentent différentes facettes de la personnalité. Nous en avons tous plusieurs en nous qui entrent en jeu selon les événements. La question spécifique de recherche est la suivante: Quel est l’impact de l’identification des subpersonnalités chez les enseignants qui éprouvent de la difficulté dans leur vie professionnelle? Cette question de recherche soulève les trois sous-questions suivantes: • Quels sont les outils et les moyens disponibles pour amener l’enseignant à identifier ses subpersonnalités? • Quelles sont les subpersonnalités présentes chez les enseignants qui éprouvent des difficultés dans leur vie professionnelle? • Quel cheminement les enseignants en difficulté suivent-ils en identifiant leurs subpersonnalités? Le premier chapitre de la recherche fait état de notre inquiétude face à la tâche d’enseignement. Il énumère des difficultés rencontrées dans l’enseignement. Il est également question de l’introspection qui procure une meilleure connaissance de soi. Le deuxième chapitre définit trois concepts clés: le monde intérieur des enseignants, la psychosynthèse et les subpersonnalités. Plusieurs auteurs sont cités afin de clarifier ces concepts. Le troisième chapitre présente le cadre méthodologique de cette recherche phénoménologique. L’approche qualitative, la méthode inductive, l’enjeu ontogénique, l’étude de cas, les entrevues et le déroulement de la recherche sont expliqués. De plus, il présente les cinq sujets (cas) ainsi que le déroulement des rencontres avec ceux-ci. Dans le quatrième chapitre, il est question de l’analyse des résultats de la première entrevue individuelle, de l’analyse des résultats de la deuxième entrevue ainsi qu’une synthèse de l’expérience des sujets. Le cinquième chapitre répond à la question spécifique de recherche ainsi qu’aux sous-questions. Suite à un travail personnel et aux rencontres avec les sujets d’étude, nous pouvons affirmer que les subpersonnalités sont un outil d’introspection qui permet de se connaître davantage et de faire un travail sur soi. Les subpersonnalités sont une façon d’évoluer et de réfléchir à nos réactions lors de moments difficiles. Elles sont, sans contredit, une avenue à connaître par tous les enseignants, particulièrement ceux qui éprouvent des difficultés dans leur vie professionnelle.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Ce mémoire vise à démontrer, à travers l’analyse des sources du renseignement militaire russe, que vers la fin du XIXᵉ siècle, la construction du chemin de fer de Bagdad par les Allemands conduit à la reconfiguration du Grand Jeu. L’intervalle historique qui s’étend de 1878 à 1914 représente la période de l’avènement de l’Allemagne en tant que nouvel acteur de la rivalité qui opposait jusqu’ici les Russes et les Britanniques en Asie centrale. L’immixtion allemande en Asie Mineure amène à l’internationalisation de la scène moyen-orientale par la construction de la voie ferrée qui, devant relier le Bosphore au golfe Persique, menaçait directement la domination britannique sur la route des Indes et modifiait la conception antérieure du Grand Jeu. En analysant quelques centaines de pages de documents provenant des sources du renseignement militaire russe, à savoir des dépêches, des comptes rendus et des rapports des agents militaires (voennye agenty) ainsi que des notices des représentants diplomatiques russes au Moyen-Orient, nous avons discerné les positions prises par les grandes puissances dans l’entreprise de Bagdad, tout en mettant de l’avant le conflit d’intérêts qui accompagnait l’établissement du tracé du futur chemin de fer. En menaçant la sécurité de l’Inde britannique d’un côté, et en contribuant au renforcement de l’armée turque à la frontière caucasienne de l’autre, le projet allemand de la Bagdadbahn fait avancer la Marche vers l’Est en inaugurant la Weltpolitik germanique.
Resumo:
En l’absence de mesure précise et unique de l’efficience pour les joueurs de hockey, la présente étude a pour objectifs d’évaluer l’efficience des joueurs dans la Ligue Nationale de Hockey (LNH) et de montrer comment celle-ci peut affecter la décision de racheter le contrat d’un joueur. Pour ce faire, les statistiques individuelles des joueurs de la LNH pour les saisons 2007-2008 à 2010-2011 sont utilisées. Pour estimer l’efficience, la méthode de l’enveloppement de données (DEA) avec bootstrap est utilisée. Les inputs incluent le salaire et le nombre de minutes de jeu, alors que les outputs incluent la contribution défensive et offensive de chaque joueur. Pour estimer l’association entre l’efficience individuelle et la probabilité d’un rachat de contrat, une régression logistique est utilisée. L’analyse des données montre que parmi 3 159 observations, l’efficience moyenne est de 0,635. L’efficience moyenne est similaire pour toutes les positions et toutes les saisons. Un lien positif et fort est trouvé entre le nombre de points au classement général d’une équipe et l’efficience moyenne des joueurs qui la compose (coefficient de corrélation=0,43, valeur-p<0,01). Les joueurs avec une efficience plus élevée ont une probabilité plus faible de voir leur contrat racheté (rapport des chances=0,01, valeur-p<0,01). La présente étude conclut donc que la plupart des joueurs de hockey dans la LNH ont un degré d’inefficience non négligeable, qu’une efficience plus élevée est associée à une meilleure performance au niveau de l’équipe et que les joueurs efficients ont une probabilité plus faible de voir leur contrat racheté.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L’objectif de cet essai est d’analyser l’applicabilité de différentes mesures réglementaires pour favoriser les changements de comportements citoyens en gestion des matières résiduelles, plus particulièrement afin de réduire l’élimination de ces matières. La prise de conscience de plus en plus généralisée à l’égard des enjeux environnementaux ne se reflète en effet pas toujours dans les comportements et actions citoyennes au quotidien et nombreux sont les facteurs qui freinent l’action environnementale. Cette situation se répercute également dans la manière dont les ménages, dans leur vie quotidienne, gèrent leurs matières résiduelles. La gestion de ces matières, dont une partie est destinée à l’élimination, soulève différents enjeux environnementaux, sociaux et économiques. Par ailleurs, parmi ce flot de matières, une quantité importante possède le potentiel d’être mise en valeur, ce qui est possible si ceux qui en ont la responsabilité à un moment ou à un autre, dont les citoyens, posent les bons gestes. Les pouvoirs publics provinciaux et municipaux peuvent utiliser trois principales approches afin de favoriser les bons comportements à cet égard. L’une d’entre elles consiste en l’utilisation de mesures législatives et réglementaires. Ces mesures, étudiées pour différents cas nord-américains, sont applicables en tenant compte des compétences provinciales et municipales. Couplées avec l’approche volontaire ou avec des instruments économiques, elles favorisent la performance des états, provinces ou municipalités qui les ont implantées sur leur territoire. Elles peuvent aussi appuyer sur certains leviers à l’action citoyenne, mais les comportements humains étant extrêmement complexes, ces mesures ne peuvent assurer, à elles seules, un changement rapide et durable des comportements. Les différentes approches, utilisées de façon complémentaire, sont plus à même d’entrainer ce changement. Pour assurer une participation maximale à la gestion des matières résiduelles, faciliter, encourager les bons comportements et favoriser l’engagement est essentiel. La réglementation à elle seule contribue peu à ces facteurs. Néanmoins, si elle s’accompagne d’un message fort, elle contribue à créer un sentiment de devoir partagé avec ses semblables et le sentiment d’une réelle adhésion et volonté politique. Pour une efficacité optimale des mesures en place, c’est l’ensemble des acteurs et générateurs de matières résiduelles qui doivent prendre leur rôle au sérieux, et non uniquement le citoyen. La mise en place de mesures favorisant des changements en amont de la problématique est aussi essentielle, bien que cet aspect ne soit pas élaboré en profondeur considérant les limites de cet essai.
Resumo:
Ce document est un essai ayant pour objectif d’établir un état des lieux et une mise en perspective du pâturage en tant qu’outil de gestion des tourbières, afin d’isoler les bonnes pratiques, en mettant en avant les impacts positifs et négatifs de ces dernières sur le milieu. Pour ce faire, le contexte des milieux tourbeux a été défini, ainsi qu’un portrait du pâturage actuel. Il s’avère que les tourbières, de par leurs conditions particulières, sont d’importants réservoirs de biodiversité. Longtemps exploitées pour les activités anthropiques, nombre d’entre elles se retrouvent aujourd’hui fortement détériorées. Cela se traduit entre autres par une modification de la dynamique d’évolution des milieux tourbeux. Ainsi, en absence de gestion et d’entretien les tourbières ont tendance à s’embroussailler, menaçant gravement la diversité biologique de ces milieux. Pour lutter contre l’enfrichement des tourbières le pâturage semble être un outil privilégié. Néanmoins, la mise en place de pratiques inadaptées peut avoir de graves répercussions sur les tourbières et leur biodiversité. Bien que certaines pratiques favorables soient établies, force est de constater que de nombreux facteurs entrent en jeu lors de la gestion pastorale. De ce fait, il est vain de chercher à définir des listes de pratiques immuables ou des « recettes » à appliquer. Au contraire, la gestion pastorale doit perpétuellement être adaptée en fonction du contexte et des objectifs de gestion. Les deux études de cas développées dans l’essai montrent bien que lors d’une application concrète, les modalités de pâturage vont différer des pratiques théoriques préconisées, sous l’effet de ces multiples facteurs. Par ailleurs, bien que comportant de nombreux avantages, le pâturage ne doit pas être vu comme un outil de gestion idéal. Même bien mis en place, il comporte certaines limites avec lesquelles il faut composer. Outre ces limites, les principaux problèmes à l’heure actuelle restent la diminution globale du pâturage extensif, ainsi que le caractère marginal des milieux tourbeux, engendrant parfois un manque d’implication de la part des politiques publiques pour leur conservation. Une des pistes de solutions les plus prometteuses est donc de pouvoir réinscrire les tourbières dans des systèmes économiques à travers des partenariats avec des exploitations agricoles. À ce titre, les tendances actuelles qui se dessinent en France et en Europe laissent entrevoir un changement favorable pour la gestion des milieux humides et une reprise des activités pastorales qui ne pourront que bénéficier à la gestion pastorale des milieux tourbeux.