988 resultados para Stratégies de subsistance
Resumo:
Cette recherche porte sur le financement public de l’enseignement supérieur au Pérou et ses impacts dans une perspective longitudinale couvant la période 1993-2003. Cette période est importante parce qu’elle a été témoin, dans ce pays, de changements majeurs aux plans du financement public et de la configuration du système d’enseignement supérieur. La recherche consiste principalement dans des analyses secondaires de données pertinentes publiées par des organismes nationaux et internationaux. Les analyses sont structurées à partir d’un schéma d’inputs et outputs. On considère comme inputs les ressources financières et les ressources humaines, lesquelles comprennent les professeurs et les étudiants, et comme outputs les taux de diplomation (efficacité interne) et la demande de diplômés par le marché du travail (efficacité externe). La théorie de la dépendance de ressources sert de cadre pour interpréter les rapports entre le financement public et ses incidences sur les réponses institutionnels et ses conséquences. Dans la période retenue, le financement du secteur public a décru de 32% en raison d’un désengagement progressif de l’État. Une conséquence majeure de la diminution du financement public a été la croissance rapide du secteur privé de l’enseignement supérieur. En effet, alors qu’en 1993 il y avait 24 institutions privées d’enseignement supérieur, il y en avait, en 2003, 46 institutions. La baisse du financement public et la croissance du secteur privé d’enseignement supérieur ont eu des incidences sur la sélectivité des étudiants, sur le statut des professeurs, sur l’implication des universités en recherche et sur les taux de diplomation. Le taux de sélectivité dans le secteur public a augmenté entre 1993 et 2003, alors que ce taux a diminué, dans la même période, dans le secteur privé. Ainsi, le secteur public répond à la diminution du financement en restreignant l’accès à l’enseignement supérieur. Le secteur privé, par contre, diminue sa sélectivité compensant ainsi l’augmentation de la sélectivité dans le secteur public et, par le fait même, augmente sa part de marché. Également, tant dans le secteur public que dans le secteur privé, les professeurs sont engagés principalement sur une base temporaire, ce qui se traduit, particulièrement dans le secteur privé, dans un moindre engagement institutionnel. Enfin, les universités publiques et privées du Pérou font peu de recherche, car elles favorisent, pour balancer leurs budgets, la consultation et les contrats au détriment de la recherche fondamentale. Paradoxalement, alors que, dans le secteur privé, les taux de sélectivité des étudiants diminuent, leurs taux de diplomation augmentent plus que dans le secteur public. Enfin, les formations avec plus d’étudiants inscrits, tant dans le secteur public que privé, sont les moins coûteuses en infrastructure et équipements. Dès lors, la pertinence de la production universitaire devient problématique. Cette recherche révèle que les organisations universitaires, face à un environnement où les ressources financières deviennent de plus en plus rares, développent des stratégies de survie qui peuvent avoir des incidences sur la qualité et la pertinence de l’enseignement supérieur.
Resumo:
L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Facile de discourir sur la paix ; complexe, par contre, d’évaluer si paroles et gestes y contribuent vraiment. De manière critique, ce mémoire cherche à contextualiser l’émergence de la nation israélienne de 1881 à 1948, de même qu’un certain nombre de forces pacifistes juives, religieuses comme séculières, sionistes comme anti-sionistes, que cette société a engendrées ou provoquées de la fin du XIXe siècle à aujourd’hui. Dans un premier temps, quatre stratégies utilisées pour construire l’État juif sont explorées : la voie pratique (l’établissement de mochavot, kibboutzim et mochavim), la voie diplomatique (le lobbying de Herzl et Weizmann), la voie sociopolitique (la formation de syndicats, de l’Agence juive et du Va’ad Leoumi) et enfin la voie militaire (la mise sur pied d’organisations paramilitaires telles la Hagana, l’Irgoun, le Lehi et le Palmah). Cette exploration permet de mieux camper le problème de la légalité et de la légitimité des nations palestinienne et israélienne. Dans un deuxième temps, une approche conceptuelle et une approche empirique sont combinées pour mieux comprendre ce qu’est un camp de la paix. L’exploration conceptuelle remet en question les critères qu’utilisent certains chercheurs afin d’identifier si une organisation contribue, ou non, à la construction de la paix. L’exploration empirique trace les contours de deux camps de la paix israéliens : les militants de la gauche séculière achkenazi (un pacifisme qui a émergé dans les années 1970) et les religieux haredim (un pacifisme opposé à l’idéologie sioniste dès ses débuts). Ce survol permet de saisir que tout système de croyances peut provoquer la guerre autant que la paix. La conclusion discute des défis du dialogue intercivilisationnel, des défis tant intranationaux (l’harmonie sociale israélienne entre les juifs achkenazim, mizrahim, russes, éthiopiens, etc.) qu’internationaux (la paix entre les Palestiniens et les Israéliens).
Resumo:
RÉSUMÉ Les répercussions du sida sur la communauté intellectuelle préfiguraient un changement certain dans l’esthétique littéraire contemporaine. Le témoignage de l’expérience individuelle de l’écrivain, à cet instant de désarroi collectif et de répression sociale à l’égard de la communauté homosexuelle, cherchait à provoquer une reconfiguration de l’espace de l’aveu par la projection du sujet privé dans la sphère publique. Cette posture de mise à nu avait déjà vu le jour dans les écrits féministes des années 70, mais elle a subi dans les années 80 et 90 une transformation importante puisque c’est le sujet masculin qui s’est exposé par la médiation du corps dans le récit de la maladie à l’heure du sida. Les discours de l’intime tentaient de rapprocher les espaces social et littéraire tout en affirmant des formes définies par des éthiques et des esthétiques hétérogènes. La période d’écriture de la maladie, qui clôt l’oeuvre de Guibert, est caractérisée par l’ancrage du contexte social de l’épidémie du sida. Par conséquent, les trois récits qui la fondent, soit À l’ami qui ne m’a pas sauvé la vie (1990), Le protocole compassionnel (1991) et Cytomégalovirus (1992), constituent le triptyque sur lequel s’appuiera ma réflexion, auquel s’ajoute le journal tenu par Guibert depuis son adolescence jusqu’à sa mort, Le mausolée des amants (2001), qui a été publié dix ans après la disparition de l’auteur. Cette oeuvre s’inscrit en partie dans cette mouvance du témoignage de la maladie, qui prend place entre 1987 et 1991, période pendant laquelle l’écrivain sent sa vulnérabilité sur le plan de sa santé. Il est proposé d’étudier à travers ces écrits l’écriture de l’aveu et de la dénonciation, telle qu’elle est pensée chez Guibert. Il s’agira de réfléchir sur les stratégies et les fonctions du témoignage littéraire d’une telle expérience à travers la mise en récit du sujet. Une problématique traverse toutefois cette posture de mise en danger individuelle où la nécessité de se révéler est l’objet d’un non-consensus. Or, cette recherche d’intensité par l’aveu, qui repose sur la maladie, la sexualité et la mort, veut dépasser sa dimension apocalyptique en tentant d’inscrire l’oeuvre dans une éthique sociale. De ce fait, le dévoilement, sur le mode de la dénonciation, s’oriente sur la dimension collective en prenant à partie la société et la communauté.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Les discussions sur l’éthique de la santé mentale se concentrent généralement sur des sujets comme la confidentialité ou les conflits d’intérêt. Certaines formes de thérapie donnent cependant lieu à des situations plus particulières. C’est le cas de la thérapie psychodynamique et des considérations éthiques soulevées par les processus de transfert et de contre-transfert. En raison du peu de recherche sur ce sujet, l’approche de l’analyse documentaire critique, une méthode qualitative, fut sélectionnée. Ce projet vise à établir l’apport de la médecine narrative et plus spécifiquement du concept de représentation pour analyser les aspects éthiques du transfert et du contre-transfert. À cette fin, ces processus sont étudiés en détail et les diverses stratégies proposées aux thérapeutes pour maintenir une relation éthique avec leurs patients sont recensées. Popularisés principalement par Rita Charon, la médecine narrative et ses principaux composants, dont la représentation, sont ensuite présentés. De plus, la mimèsis étant à la base de la représentation, les travaux de Paul Ricœur sur le sujet sont discutés. Le dernier chapitre de ce mémoire, qui constitue la partie analytique du projet, prend la forme d’un exercice inductif évaluant l’apport de la médecine narrative pour analyser les aspects éthiques du transfert et du contre-transfert.
Resumo:
Dans sa thèse, l’auteure analyse la fonction du système judiciaire dans le système juridique selon une double perspective historique et sociologique. Cette approche possède un potentiel euristique important, car elle révèle que la place réservée à la production judiciaire du droit se modifie au gré de la conception que se fait la société de l’origine et de la légitimité du droit. Grâce à la méthodologie proposée par la théorie des systèmes, il est possible d’analyser le phénomène de la montée en puissance des juges dans sa dimension scientifique, en substituant une interprétation sociologique à celle, traditionnelle, formulée par la science politique. Grâce à une réappropriation de la justice par la science juridique, la production judiciaire du droit peut être étudiée dans une perspective systémique. Celle-ci démontre la situation névralgique occupée par la fonction de juger dans le système juridique. Par le biais d’un retour aux sources de la fonction de juger, l’auteur identifie les stratégies empruntées par les titulaires de cette fonction pour maintenir et légitimer leur position dans l’organisation du système juridique. La thèse démontre que le discours judiciaire de la Cour suprême du Canada sur la norme d’indépendance judiciaire homologue la théorie de la place centrale du système judiciaire dans le système juridique. La thèse conclut enfin que des conditions sociologiques sont nécessaires pour assurer l’indépendance judiciaire et garantir la primauté du droit. Ces conditions sont la différenciation sociale, une structure de programme juridique conditionnelle et la limitation de la responsabilité des juges pour l’impact de leurs décisions dans le système social.
Resumo:
La présente étude vise à décrire les représentations sociales que des jeunes francophones en santé au Nouveau-Brunswick ont à l’égard du diabète. Cette étude découle d’un partenariat, initié entre l’Université de Moncton et divers organismes et collèges communautaires du Nouveau-Brunswick, qui ont identifié l’importance d’intervenir auprès des jeunes francophones en milieu scolaire pour prévenir le diabète. La théorie des représentations sociales est le cadre théorique utilisé pour décrire la vision que les jeunes ont du diabète, de son origine et des facteurs associés à sa prévention. À notre connaissance, cette étude est la première à examiner le concept du diabète chez des adolescents non atteints de diabète. Hypothèse principale: étant donné que l’expérience que les adolescents ont du diabète est limitée à leur environnement social et qu’ils ont de la difficulté à définir les concepts de santé et de maladie, ils ne seront pas capables de décrire le diabète en profondeur. Pour ce faire, des groupes de discussion, incluant une technique d’association libre, ont été réalisés, entre novembre et décembre 2005, auprès d’adolescents de 5e, 8e et 10e année recrutés dans quatre écoles francophones du Nouveau-Brunswick (Districts 1 et 11). Les réponses des élèves aux groupes de discussion et à l’association libre ont été classées dans des catégories et sous-catégories (analyse de contenu), et des tests de Khi-deux et de «Fisher» ont permis de déterminer les différences entre les sexes et les niveaux scolaires. Cent-trente adolescents (70 filles et 60 garçons) de 5e (n=44), 8e (n=46) et 10e année (n=40) ont participé à 19 groupes de discussion. Lors de l’activité d’association libre, les catégories les plus fréquemment mentionnées étaient : sucre (cité par 66% des participants), traitement (48%), nature du diabète (45%), nutrition (41%), sang (38%), complications (18%), manifestations physiologiques (11%), obésité (6%) et activité physique (6%). Aucune différence significative n’a été observée entre les sexes mais les élèves de 10e année ont cité plus fréquemment les catégories «traitement», «sang» et «obésité». Lors des groupes de discussion, les adolescents ont décrit le diabète comme une maladie (13/19 groupes) reliée au sucre (15/19 groupes) et au sang (13/19 groupes). Cependant, seulement quelques groupes ont discuté en profondeur de la nature du diabète (ex.: rôle de l’insuline et pancréas), des types de diabète (types 1 et 2) et des symptômes et des complications. Ils ont aussi cité ce que les gens atteints de diabète devaient faire pour traiter leur diabète (ex.: manger bien: 18 groupes; se piquer: 17 groupes; prendre des pilules: 5 groupes; et faire de l’activité physique: 5 groupes), mais ils n’ont pas discuté des stratégies à entreprendre pour y arriver. Les représentations de l’origine du diabète incluaient l’hérédité et l’âge (13/19 groupes), l’obésité et l’alimentation (12/19 groupes) et l’activité physique (13/19 groupes). Dans la moitié des groupes, les adolescents ont mentionné se sentir à risque de diabète; les filles plus que les garçons. Treize groupes ont fait référence aux comportements observés chez des diabétiques connus, ce qui démontre l’importance de l’environnement social sur les représentations. Les résultats de cette étude appuient l’hypothèse que les adolescents sont limités dans leur description du diabète en matière de définitions, origines et prévention du diabète. Ces résultats fournissent des pistes de réflexion aux professionnels de la santé pour identifier le contenu et les stratégies que devraient contenir les programmes éducatifs en matière de prévention du diabète chez les jeunes.
Resumo:
Résumé Ce travail cherche à révéler les stratégies utilisées dans Palinuro de México (1977) de Fernando del Paso pour représenter l’histoire du mouvement étudiant de 1968, qui se termina par le massacre de Tlatelolco. Afin de protéger son image, le gouvernement censura cet événement, qui compte parmi les plus marquants de l’histoire contemporaine du Mexique. Nous situons Palinuro de México dans un corpus littéraire qui résiste au silence imposé par les autorités avec la création d’une poétique capable de raconter l’histoire et de dénoncer la censure. Notre hypothèse s’appuie sur les réflexions de Paul Veyne et Jacques Rancière, qui démontrent que l’écriture de l’histoire ne possède pas de méthode scientifique, mais procède plutôt d’une construction littéraire. Cela nous permet d’affirmer que l’histoire, puisqu’elle relève de la littérature, peut aussi être racontée dans un roman. La théorie de la littérature carnavalesque de Mijail Bajtin, qui se caractérise par le rire, la liberté d’expression et l’opposition aux règles officielles, nous sert à identifier les procédés utilisés dans Palinuro de México pour créer une mémoire de Tlatelolco. Ce style rappelle la vitalité du mouvement étudiant, en soulignant la joyeuse subversion des valeurs. De plus, son caractère polyphonique permet d’inclure une pièce de théâtre dans un roman et de confronter les différentes idéologies qui s’opposaient durant le conflit.
Resumo:
Résumé L’hypothèse de la période critique, émise par Lenneberg dans les années 60, affirmait qu’un enfant pouvait acquérir une langue seconde, sans difficulté, environ jusqu’à l’âge de la puberté. Après cette période, l’apprentissage d’un autre idiome serait difficile, dû à la latéralisation du cerveau. En même temps, les travaux de Chomsky enrichirent cette théorie avec l’idée de la Grammaire universelle, laquelle établit que nous possédons tous, dès la naissance, les éléments linguistiques universels qui nous permettent d’acquérir une langue maternelle. Tant que la Grammaire universelle est active, notre langue maternelle se développe et c’est pourquoi, si nous apprenons une autre langue pendant cette période, l’acquisition de celle-ci se produit de manière presque naturelle. Pour cette raison, plus une langue est apprise tôt, plus elle sera maîtrisée avec succès. En nous appuyant sur ce cadre théorique ainsi que sur l’Analyse d’erreurs, outil qui permet au professeur de prédire quelques erreurs avec la finalité de créer des stratégies d’apprentissage d’une langue seconde, nous tenterons de vérifier dans le présent travail si l’âge est un facteur qui influence positivement ou négativement l’apprentissage d’une langue seconde, l’espagnol dans ce cas-ci, par le biais de l’analyse comparative des prépositions a/ en dans deux groupes d’étudiants différents.
Resumo:
Il est bien connu que les enfants qui présentent un trouble de traitement auditif (TTA) ont de la difficulté à percevoir la parole en présence de bruit de fond. Cependant, il n’existe aucun consensus quant à l’origine de ces difficultés d’écoute. Ce programme de recherche est consacré à l’étude des incapacités sous-jacentes aux problèmes de perception de la parole dans le bruit chez les enfants présentant un TTA. Le Test de Phrases dans le Bruit (TPB) a été développé afin d’examiner si les difficultés de perception de la parole dans le bruit d’enfants ayant un TTA relèvent d’incapacités auditives, d’incapacités cognitivo-linguistiques ou des deux à la fois. Il comprend cinq listes de 40 phrases, composées de 20 phrases hautement prévisibles (HP) et de 20 phrases faiblement prévisibles (FP), de même qu’un bruit de verbiage. Le niveau de connaissance du mot clé (mot final) de chaque phrase a été vérifié auprès d’un groupe d’enfants âgés entre 5 et 7 ans. De plus, le degré d’intelligibilité des phrases dans le bruit et le niveau de prévisibilité ont été mesurées auprès d’adultes pour assurer l’équivalence entre les listes. Enfin, le TPB a été testé auprès d’un groupe de 15 adultes et d’un groupe de 69 enfants sans trouble auditif avant de l’administrer à des enfants ayant un TTA. Pour répondre à l’objectif général du programme de recherche, dix enfants présentant un TTA (groupe TTA) et dix enfants jumelés selon le genre et l’âge sans difficulté auditive (groupe témoin) ont été soumis aux listes de phrases du TPB selon différentes conditions sonores. Le groupe TTA a obtenu des performances significativement plus faibles comparativement au groupe témoin à la tâche de reconnaissance du mot final des phrases présentées en même temps qu’un bruit de verbiage compétitif, aux rapports signal-sur-bruit de 0, +3 et +4 dB. La moyenne de la différence des scores obtenue entre les phrases HP et FP à chaque condition expérimentale de bruit était similaire entre les deux groupes. Ces résultats suggèrent que les enfants ayant un TTA ne se distinguent pas des enfants du groupe témoin au plan de la compétence cognitivo-linguistique. L’origine des difficultés d’écoute de la parole dans le bruit dans le cas de TTA serait de nature auditive. Toutefois, les résultats des analyses de groupe diffèrent de ceux des analyses individuelles. Les divers profils de difficultés d’écoute identifiés auprès de cette cohorte appuient l’importance de continuer les investigations afin de mieux comprendre l’origine des problèmes de perception de la parole dans le bruit dans le cas de TTA. En connaissant mieux la nature de ces difficultés, il sera possible d’identifier les stratégies d’intervention de réadaptation spécifiques et efficaces.
Resumo:
Réalisé en codirection avec Hélène Buzelin
Resumo:
Le présent mémoire s’intéresse à la déstabilisation d’un réseau de distribution de stupéfiants. Il est basé sur l’étude d’une enquête policière réalisée dans une grande ville canadienne. L’objectif principal de cette enquête était le démantèlement d’un réseau criminel perçu comme étant hiérarchisé. Différentes stratégies ont été mises en œuvre par les enquêteurs afin de déstabiliser le réseau. Cinq de ces stratégies sont étudiées dans cette recherche. Des analyses de réseaux et l’évaluation de l’évolution des opérations de distribution de stupéfiants démontrent que, parmi les stratégies déstabilisatrices, le retrait sélectif (arrestation) et l’ajout (infiltration) de participants dans le réseau sont les plus efficaces. Les résultats détaillés montrent l’importance de préparer des enquêtes systématiques et réfléchies en vue de déstabiliser un réseau. Bien que les rafles massives de participants soient intéressantes, il est essentiel d’en soulever les limites. Le fait de se concentrer sur des enquêtes planifiées permettra non seulement de répondre aux objectifs de l’enquête en cours, mais également de comprendre et développer des pratiques de déstabilisation à long terme au niveau du marché criminel en général (méta-réseau).