649 resultados para Champ scalaire
Resumo:
Les stérosomes, des vésicules artificielles composées d’amphiphiles monoalkylés et d’un grand pourcentage de stérols, sont prometteurs dans plusieurs domaines comme les industries pharmaceutiques et alimentaires. Il existe des stérosomes chargés négativement, positivement et neutres. Dans ce mémoire, nous avons approfondi nos connaissances sur les propriétés physico-chimiques des stérosomes chargés : acide palmitique (PA)/stérol et stéarylamine (SA)/cholestérol (Chol). Premièrement, afin de mesurer la diffusion latérale de PA dans les membranes PA/stérol (30/70 mol/mol) par RMN à gradients pulsés, nous avons tenté de former des bicouches liquide-ordonnées (lo) orientées magnétiquement avec ce mélange. En s'inspirant de l’idée que l’ajout de 1,2-dihexanoyl-sn-glycéro-3-phosphocholine (DHPC), un lipide à courtes chaînes, dans le système 1,2-dimyristoyl-sn-glycéro-3-phosphocholine (DMPC) mène à la formation de bicouches orientées, nous avons étudié la formulation PA perdeutéré/acide hexanoïque (HA)/Chol avec une proportion molaire de 25/18/57 à plusieurs températures; aucune formation de bicouches orientées n’a été observée. Ce résultat pourrait être expliqué par la solubilisation partielle de HA en milieu aqueux. Alors, une quantité insuffisante serait insérée dans la bicouche pour induire son orientation. La formulation PA perdeutéré/DHPC/Chol n’a pas conduit, elle non plus, à des bicouches orientées magnétiquement à des températures et concentrations lipidiques variées. En étudiant le mélange DMPC/DHPC/Chol (67/17/14), nous avons remarqué que la présence de Chol inhibait l'orientation magnétique des bicouches. Tandis que le mélange DMPC/DHPC/stigmastérol (SS) avec les proportions molaires 67/19/14 et 72/21/7 conduisait à des bicouches orientées avec leur normale (n) perpendiculaire au champ magnétique à 40 °C et 50 °C. Ces résultats suggèrent que le mélange PA/SS avec une proportion de lipide à courtes chaînes, HA et DHPC, pourrait mener à des bicouches orientées magnétiquement. Le mélange PA/Chol avec un lipide à courtes chaînes pourrait aussi être étudié en présence des lanthanides. Deuxièmement, nous avons examiné la possibilité de moduler la libération de matériel encapsulé dans des liposomes essentiellement composés de PA et d’un stérol. Il est connu que le mélange PA/Chol (30/70) à pH ≥ 7,5 forme des liposomes très peu perméables. Il est avantageux de pouvoir moduler la perméabilité pour avoir un contrôle sur le temps de libération de leur contenu, qui est un paramètre de grande importance pour les formulations liposomales de médicaments. D’abord, il a été montré que l’acide oléique (OA)/Chol (30/70) est capable de former des vésicules, ce qui n’avait jamais été prouvé auparavant. Par contre, les bicouches OA/Chol (30/70) ne sont pas plus perméables que les bicouches PA/Chol (30/70). L’ajout de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphatidylcholine (POPC) dans le mélange PA/Chol n’augmente pas plus la perméabilité. En effet, les cinétiques de relargage de calcéine des vésicules PA/POPC/Chol (15/27.5/57.5), POPC/Chol (40/60) et POPC étaient très semblables à celle de PA/Chol (30/70). Il a été remarqué que les études littéraires se contredisent à propos de la perméabilité à la calcéine des bicouches de phosphatidylcholine (PC). L’explication de ces divergences est inconnue pour le moment. En remplaçant la moitié de la proportion molaire de Chol par le cholate de sodium (SC) dans le mélange PA/Chol (30/70), la membrane n’était pas plus apte à libérer son contenu. Il se pourrait que le SC se retrouvant dans la bicouche n’induit pas une diminution d’empilement. Il est aussi possible que le SC ne s'insère pas dans la membrane à cause de son hydrophilie considérable et il pourrait alors former seul des micelles. En remplaçant complètement le Chol par le sulfate de cholestérol (SChol), un stérol chargé négativement, et en préparant les vésicules à un bas pH, la formulation PA/SChol (30/70) mène à une très grande perméabilité à pH 7.5; le relargage est provoqué par un saut de pH. Nos travaux suggèrent qu'il serait possible de moduler la perméabilité des liposomes en les préparant avec le mélange PA/SChol/Chol en variant les proportions entre 30/63/7 à 30/70/0. Le diagramme pH-composition du mélange PA/SChol/Chol indique que ces proportions conduisent, à pH 7.4, à la coexistence de phases solide et lo en différentes proportions, ce qui pourrait moduler la perméabilité membranaire. Troisièmement, les résultats de perméabilité obtenus avec la calcéine et les difficultés survenues lors de l’extrusion des vésicules encapsulant cette sonde nous ont amené à nous demander si la calcéine interagit avec les bicouches chargées. L’impact de certains anions, dont la calcéine, a été examiné sur les bicouches chargées positivement SA/Chol (50/50). La calorimétrie différentielle à balayage (DSC, de l’anglais differential scanning calorimetry), indique qu’il n’y a aucune transition entre 25 et 90 °C pour les liposomes SA/Chol (50/50) à pH = 7.4. L’ajout de chlorure de sodim (375 mM) n’a pas mené à la formation d’agrégats et aucune transition n’a été observée sur le thermogramme. La formation d’agrégats macroscopiques instantanément après l’ajout d’hydrogénophosphate de sodium (125 mM), de sulfate de sodium (125 mM) et de calcéine (3 mM) a été observée. Une transition a été observée sur les thermogrammes en présence de ces sels. Les agrégats observés pourraient être associés à la transition de phase. L’effet des anions sur la température et l’enthalpie de transition suivent le même ordre que la série d’Hofmeister : sulfate > hydrogénophosphate > chlorure (pas de pic). La calcéine avait l’impact le plus prononcé sur l’agrégation; ceci illustre que la calcéine n’est pas une sonde fluorescente inerte avec le mélange SA/Chol. Elle pourrait être un chaotrope volumineux. De plus, les interactions SA-calcéine plus fortes, menant à l’agrégation des vésicules, que les interactions PC-calcéine pourraient s’expliquer par le fait que la SA est chargée positivement.
Resumo:
L’importance du rôle de l’infirmière dans le système de santé autant au niveau de l’accessibilité que la qualité et la sécurité des soins et services donnés à la population est reconnue. Pour être en mesure d’exercer pleinement ce rôle, les infirmières doivent être en mesure d’exercer à leur pleine étendue de pratique. Les infirmières œuvrant dans le domaine de la santé mentale n’y font pas exception. Or, les recherches démontrent que les infirmières ne parviennent pas à mettre en oeuvre l’ensemble des activités pour lesquelles elles détiennent la formation et l’expérience. Cette recherche vise à mesurer l’étendue de pratique effective des infirmières oeuvrant en santé mentale ainsi qu’à identifier l’influence du niveau de formation sur cette étendue de pratique. Cette étude prend appui sur le SCOP model de Déry et al. (2015) qui mentionne que certaines caractéristiques de l’environnement et individuelles, telles que le niveau de formation, peuvent influencer l’étendue effective de la pratique des infirmières. Le déploiement de cette étendue de pratique a le potentiel d’influencer à son tour la satisfaction professionnelle des infirmières (Déry et al., 2013), la qualité des soins aux patients ainsi que d’autres variables organisationnelles telles que l’accessibilité, les durées moyennes de séjours et les coûts. Un devis corrélationnel descriptif a été retenu pour cette étude. Un questionnaire de type Likert a été complété par les infirmières (n=80) d’un Institut universitaire en santé mentale du Québec. Des analyses de la variance ont été utilisées pour comparer les moyennes d’étendue de pratique selon les ni-veaux de formation. Les résultats démontrent un déploiement sous-optimal de l’étendue de la pratique des infirmières (4,24/6; E.T.= 0,63). Cette étendue de pratique est tout de même supérieure à l’étendue de pratique des infirmières d’autres milieux qui a été mesurée à l’aide du questionnaire de l’étendue de la pratique infirmière (QÉPI). Les analyses effectuées concernant l’influence du niveau de formation sur l’étendue de pratique n’ont révélées aucune différence significative entre les niveaux de formation F (3, 77) = 0,707, p = 0,551. Le niveau de formation des infirmières, la présence d’un biais de représentation, le manque de puissance statistique et certaines caractéristiques de l’emploi peuvent expliquer ces résultats. Les résultats de cette étude semblent constituer une recherche empirique initiale puisqu'il s’agit à ce jour de l’unique recherche à avoir mesuré l’étendue de pratique des infirmières œuvrant en santé mentale à l’aide du QÉPI et à avoir tenté de connaître l’influence que pouvait avoir le niveau de formation sur l’étendue de leur pratique.
Resumo:
Cette recherche porte sur le processus de renouvellement personnel et professionnel d’une enseignante et directrice d’une école de musique (Ecole Musique en mouvement), à la faveur de l’accompagnement formation à médiation corporelle que j’ai mis en place, afin de répondre à sa demande de formation. L’étude s’inscrit dans le domaine de l’éducation et de la formation continue des adultes ; l’accompagnement formation s’enracine dans le paradigme du Sensible. Dans le champ théorique, après avoir éclairé le carrefour entre des processus de changement et les actions d’accompagnement formation qui tentent de les favoriser, j’ai présenté la Psychopédagogie Perceptive et développé la spécificité de cette démarche d’accompagnement formatif à médiation corporelle. La posture épistémologique déployée est celle d’un praticien chercheur qui opte pour une démarche heuristique d’analyse qualitative. C’est à partir d’une méthodologie de recueil croisé (journal de bord de la participante à la recherche et entretiens face à face), que j’ai effectué une analyse catégorielle d’inspiration phénoménologique, suivie d’une analyse herméneutique des données, afin de comprendre les incidences de notre pratique sur la sphère de la vie personnelle et de la vie professionnelle de l’enseignante et directrice, dans les champs de sa perception, de sa cognition et de ses actions.
Resumo:
À l’heure des migrations contemporaines liées au travail, la flexibilité spatiale des groupes tsiganes n’est plus considérée comme une « déviation » par rapport à la sédentarité, paradigme dominant pour penser l’espace. Le « nomadisme » tsigane dévoile aujourd’hui un visage nouveau : celui d’une mobilité de travail complexe qui produit, elle aussi, certaines formes d’ancrage spatial. Dans le champ des études tsiganes, ce sont surtout les diverses trajectoires et pratiques de déplacement des groupes « nomades » qui ont retenu l’attention des spécialistes. Dans cette thèse, nous préférons nous appuyer sur la phénoménologie des formes tsiganes d’ancrage spatial. À partir d’une approche ethnologique directe des 15 communautés roumaines-bayashes de la région des Carpates du Nord, dans l’Ukraine occidentale et au Sud-Est de la Slovaquie, nous interrogeons plus particulièrement le rapport qui existe entre le tabor — terme émique pour désigner les camps tsiganes est-européens — et le concept de territoire. Notre analyse porte notamment sur le tabor en tant que forme de localisation temporaire, de découpage social et culturel de l’espace et ce, dans une perspective qui tient compte des changements que les processus de sédentarisation communiste et postcommuniste lui ont fait subir. De nouvelles logiques spatiales sont mises en oeuvre, c’est pourquoi certains concepts opératoires — plus adaptés aux réalités contemporaines du tabor — sont discutés.
Resumo:
Les théories poétiques de l’inscape et du sprung rhythm établies par le poète britannique Gerard Manley Hopkins (1844-1889) ont dérouté les critiques des années durant. La plupart d’entre eux se sont appuyés sur les poèmes publiés en quête d’indices quant à la signification de ses théories. Cette thèse approfondit l’analyse mise de l’avant en révélant que la genèse de la théorie de l’inscape provient des notes de Hopkins — alors étudiant de premier cycle — sur le philosophe présocratique Parménide, et est influencée par les commentaires sur l’oeuvre De la nature du philosophe. Un examen des lettres de Hopkins à ses collègues poètes Robert Bridges et Richard Watson Dixon révèle que le sprung rhythm découle de l’inscape, sa théorie de base. La technique du sprung rhythm consiste donc en l’application de l’inscape au schéma métrique de la poésie. Cette étude établit d’abord une définition opérationnelle de chacune de ces théories pour ensuite les appliquer aux manuscrits afin de déterminer dans quelle mesure Hopkins y adhérait et les exploitait lors de la rédaction de deux de ses poèmes canoniques, God’s Grandeur et The Windhover. L’étude s’inscrit ainsi dans le champ de la critique génétique, une approche mise au point en France, particulièrement à l’Institut des textes et manuscrits modernes (ITEM). Ce sont donc sur des oeuvres littéraires françaises ou sur des textes en prose qu’ont porté la majorité des analyses à ce sujet. Suppressions, ajouts, substitutions et constantes entre différentes versions témoignent de ce qu’étaient les priorités de Hopkins dans sa quête pour atteindre l’effet désiré. Par conséquent, cette thèse s’efforce de dévoiler la signification des théories poétiques de Hopkins en établissant leur genèse et leur application respectives dans deux de ses poèmes selon une perspective de critique génétique. Elle contribue également à enrichir la critique génétique en l’appliquant à des oeuvres littéraires écrites en anglais et sous forme de poésie plutôt que de prose. Enfin, son objectif ultime est de raviver l’intérêt pour le poète Hopkins en tant que sujet viable d’étude, et de favoriser l’appréciation de ses prouesses tant comme théoricien poétique que comme poète.
Resumo:
Ce mémoire examine les fondements de la montée ainsi que du déclin de l’organisation non gouvernementale Federal Union, Inc. aux États-Unis entre 1939 et 1945. Ce regroupement, mis sur pied par Clarence K. Streit dans l’optique de faire la promotion de son projet internationaliste décrit dans son livre intitulé Union Now: A Proposal for a Federal Union of the Democracies of the North Atlantic, connut durant la Seconde Guerre mondiale un élan de popularité remarquable qui l’amena à l’avant-scène des débats sur la gestion des relations interétatiques, avant de s’essouffler rapidement, malgré l’intérêt qu’il suscita au cours de ses premières années d’existence. Dans les faits, ce phénomène, s’avéra étroitement lié au contexte historique, à l’idéologie défendue par le mouvement, de même qu’à l’organisation et à la gestion des activités de Federal Union, Inc. Ainsi, par l’étude d’un cas particulier, ce mémoire ouvre une nouvelle fenêtre sur l’internationalisme américain durant la Seconde Guerre mondiale, un champ d’études négligé par les chercheurs. Avec pour principal objectif d’offrir une réflexion articulée sur le fédéralisme mondial, une idéologie toujours très peu étudiée à ce jour par les historiens, cette étude mettra en lumière les rouages expliquant les hauts et les bas de cette ligne de pensée politique à l’époque. Ce faisant, le lecteur sera amené à repenser le mouvement internationaliste américain, traditionnellement perçu comme triomphant au cours de la guerre de 1939 à 1945. Il permettra de surcroît de réfléchir aux facteurs favorisant la transformation de la pensée politique au sein d’une société, tels que l’opinion publique et le rôle des organisations non gouvernementales ainsi que des groupes d’intérêt.
Resumo:
C’est en réponse aux plus récentes crises financières que plusieurs processus réglementaires – dont certains constituent les objets d’étude de cette thèse – ont été déployés pour concevoir et implanter diverses réformes « d’amélioration » au sein de la pratique professionnelle des auditeurs financiers. Tant la crise du début des années 2000 que celle de 2007-2008 auraient attiré de vives critiques à l’égard du travail des auditeurs et de leur contribution (prétendument défaillante) au sein du fonctionnement des marchés des capitaux. Considérant leur fonction de « chien de garde » qui est censée assurer, avant tout, la protection du public au sein de ces marchés, il semblait inévitable que leur travail soit, dans une certaine mesure, remis en doute à travers les processus de révision réglementaire mis en place. C’est ainsi que chacun des trois articles qui composent cette thèse offre une analyse de différents aspects – tels que la mise en place, le déroulement, la nature et la substance des discours et des résultats – liés à ces processus de révision réglementaire qui entourent la pratique professionnelle des auditeurs au lendemain des crises financières. En somme, en plus d’indiquer comment ces processus ne sont point à l’abri de controverses, les conclusions de cette thèse inciteront à ce qu’une attention sérieuse soit portée à leur égard afin de préserver le bienfondé de la profession des comptables et des auditeurs. Alors que, dans le premier article, il sera question d’illustrer l’infiltration (critiquable) d’un discours néolibéral au sein des débats qui entourent les processus de révision réglementaire dont il est question, dans le deuxième article, il sera question d’exposer, au sein de ces processus, un mécanisme de production de mythes prônant un certain statu quo. Par ailleurs, dans le dernier article, en plus de mettre en évidence le fait que les approches de gouvernance déployées à travers ces processus de révision réglementaire ne sont pas suffisamment englobantes, on pourra aussi prendre conscience de l’inféodation de l’expertise de l’audit face à son environnement (et plus précisément, face aux expertises de la normalisation comptable et de la financiarisation de l’économie). Sous un regard critique, et à travers des analyses qualitatives, chacun des articles de cette thèse permettra de remettre en question certaines facettes des processus réglementaires et institutionnels qui entourent le champ de la comptabilité et de l’audit.
Resumo:
Introduction : Une proportion importante des individus ayant recours à des services de réadaptation physique vit avec de la douleur et des incapacités locomotrices. Plusieurs interventions proposées par les professionnels de la réadaptation afin de cibler leurs difficultés locomotrices nécessitent des apprentissages moteurs. Toutefois, très peu d’études ont évalué l’influence de la douleur sur l’apprentissage moteur et aucune n’a ciblé l’apprentissage d’une nouvelle tâche locomotrice. L’objectif de la thèse était d’évaluer l’influence de stimulations nociceptives cutanée et musculaire sur l’acquisition et la rétention d’une adaptation locomotrice. Méthodologie : Des individus en santé ont participé à des séances de laboratoire lors de deux journées consécutives. Lors de chaque séance, les participants devaient apprendre à marcher le plus normalement possible en présence d’un champ de force perturbant les mouvements de leur cheville, produit par une orthèse robotisée. La première journée permettait d’évaluer le comportement des participants lors de la phase d’acquisition de l’apprentissage. La seconde journée permettait d’évaluer leur rétention. Selon le groupe expérimental, l’apprentissage se faisait en présence d’une stimulation nociceptive cutanée, musculaire ou d’aucune stimulation (groupe contrôle). Initialement, l’application du champ de force provoquait d’importantes déviations des mouvements de la cheville (i.e. erreurs de mouvement), que les participants apprenaient graduellement à réduire en compensant activement la perturbation. L’erreur de mouvement moyenne durant la phase d’oscillation (en valeur absolue) a été quantifiée comme indicateur de performance. Une analyse plus approfondie des erreurs de mouvement et de l’activité musculaire a permis d’évaluer les stratégies motrices employées par les participants. Résultats : Les stimulations nociceptives n’ont pas affecté la performance lors de la phase d’acquisition de l’apprentissage moteur. Cependant, en présence de douleur, les erreurs de mouvement résiduelles se trouvaient plus tard dans la phase d’oscillation, suggérant l’utilisation d’une stratégie motrice moins anticipatoire que pour le groupe contrôle. Pour le groupe douleur musculaire, cette stratégie était associée à une activation précoce du muscle tibial antérieur réduite. La présence de douleur cutanée au Jour 1 interférait avec la performance des participants au Jour 2, lorsque le test de rétention était effectué en absence de douleur. Cet effet n’était pas observé lorsque la stimulation nociceptive cutanée était appliquée les deux jours, ou lorsque la douleur au Jour 1 était d’origine musculaire. Conclusion : Les résultats de cette thèse démontrent que dans certaines circonstances la douleur peut influencer de façon importante la performance lors d’un test de rétention d’une adaptation locomotrice, malgré une performance normale lors de la phase d’acquisition. Cet effet, observé uniquement avec la douleur cutanée, semble cependant plus lié au changement de contexte entre l’acquisition des habiletés motrices et le test de rétention (avec vs. sans douleur) qu’à une interférence directe avec la consolidation des habiletés motrices. Par ailleurs, malgré l’absence d’influence de la douleur sur la performance des participants lors de la phase d’acquisition de l’apprentissage, les stratégies motrices utilisées par ceux-ci étaient différentes de celles employées par le groupe contrôle.
Resumo:
L'immigration demeure un phénomène fortement répandu dans les communautés rurales francophones qui veulent contrecarrer les conséquences démographiques, économiques, sociales et politiques de la dépopulation progressive. Les collectivités se voient ainsi de plus en plus touchées par ce phénomène qui apporte certes plusieurs avantages, mais aussi une quantité innombrable de défis à relever. L'intégration des immigrants au sein de ces collectivités rurales, dont les collectivités du nord-ouest du Nouveau-Brunswick, comporte des difficultés. L'insertion professionnelle et sociale dépend de divers facteurs que ce soit la connaissance et la maitrise de la langue, la capacité à établir et maintenir des liens sociaux, la capacité de s'approprier un ensemble de valeurs ; de normes et de rôles, etc. Parmi les facteurs qui sont susceptibles de nuire ou de faciliter le processus d'intégration, les représentations que se font les citoyens du phénomène de l'immigration pourraient occuper une place substantielle. Dans cette recherche exploratoire, on rend compte des représentations sociales dans un lieu géographiquement déterminé. La conceptualisation des représentations s'inspire en partie des travaux de Serge Moscovici et de certains auteurs plus contemporains, tels que Jodelet, qui s'inscrivent dans son prolongement. Plus précisément, nous étudions les représentations de l'immigration chez les citoyens de la municipalité de Saint-Léonard, au Nouveau-Brunswick. Ce terrain semblait particulièrement riche pour étudier ce concept étant donnée sa récente histoire et expérience avec le phénomène de l'immigration. À cet égard, ont été identifiées et décrites : les valeurs, les sentiments, les émotions, les idéologies, les concepts, les opinions, les orientations de comportements, etc. de treize personnes rencontrées dans le cadre d'entrevues semi-dirigées individuelles. Les entretiens ont permis de colliger les éléments de définition ou des caractéristiques de l'immigration dans la région du nord-ouest du Nouveau-Brunswick. Les travaux de Milton Bennett qui portent sur les stades de développement de l'ouverture interculturelle ont servi d'inspiration et ont permis d'analyser les discours des citoyens. Cette théorie a permis de mettre en relief le positionnement des citoyens face à l'immigration et à la présence de personnes immigrantes dans leur communauté. De l'analyse des données recueillies (transcription des verbatims, puis identification et regroupement des segments pertinents), il ressort que les acteurs locaux se représentent l'immigration et les immigrants avec une certaine crainte et méfiance. Cette thèse se veut une première étape permettant une compréhension de la perception des locaux face aux immigrants. Toutefois, d'un point de vue pratique et dans le but de mieux cibler les actions pertinentes à mener au sein de la communauté, le modèle du champ de forces de Kurt Lewin a permis de représenter la situation actuelle et souhaitée de façon à ce que l'immigration et l'intégration des immigrants soient vécues positivement de part et d'autre.
Resumo:
Dans la profession d’éducatrice et d’éducateur, le savoir-être revêt une importance particulière. Pour plusieurs, cet apprentissage se fait sans heurt, mais pour d’autres, il arrive que cet apprentissage soit problématique. Dès mon entrée dans la profession d’enseignante au collégial, j’ai rapidement été confrontée à la gestion des attitudes parmi la clientèle étudiante. Les discussions entre collègues renforçaient cette impression que certaines et certains étudiants éprouvaient de sérieuses difficultés à développer les savoir-être essentiels à la profession d’éducatrice et d’éducateur spécialisé. Au fil des trimestres, l’idée s’est imposée d’elle-même : sensibiliser la clientèle étudiante à la gestion des attitudes. Ce champ d’études étant très large, il a fallu circonscrire mon objet de recherche. Cet essai se limite à identifier les savoir-être signifiants à la profession d’éducatrice et d’éducateur spécialisé, afin d’améliorer le développement des compétences professionnelles des étudiantes et des étudiants. Le cadre conceptuel s’articule autour des différents concepts utilisés dans le domaine. Certains auteurs parlent d’attitudes, d’autres exploitent le thème des savoir-être et certains autres encore, utilisent le thème des habiletés socioprofessionnelles. Cette analyse a permis de dégager ma position de chercheuse. Je retiens trois principes de base : - Le savoir-être permet à la personne de réaliser une tâche professionnelle de la meilleure façon qu’il soit. (Boudreault, 2004) - Le savoir-être est un indicateur de performance élevé. (Scallon, 2004) - Le savoir-être est une compétence qui est source de réussite professionnelle. (Bellier, 2004). Les écrits de Bellier (2004), de Boudreault (2004) et de Scallon (2004) cités ci-hauts, font bien comprendre la valeur ajoutée de ce concept en lien avec une profession. Le savoir-être, en contexte de travail, permet à la personne de développer sa compétence professionnelle. Dans cette optique, la première étape pour découvrir les savoir-être signifiants à la profession a été de faire le parallèle entre trois grilles identifiant différents savoir-être. Ces modèles sont inspirés de Boudreault (2004), de Grisé et Trottier (1997) et de l’équipe enseignante en Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska. Cette démarche a permis de regrouper les savoir-être similaires ou équivalents. À partir de ces regroupements, un groupe d’enseignantes et d’enseignants du Département des Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska s’est prononcé, par l’entremise d’entrevues individuelles, sur les savoir-être les plus pertinents à utiliser pour bâtir un sondage électronique. Par la suite, ce sondage a été réalisé avec la collaboration des différents partenaires de stage de la région de la Montérégie ainsi qu’avec la participation de l’équipe enseignante afin de sélectionner les savoir-être signifiants à la profession. Cet exercice a permis d’identifier quatre savoir-être. L’identification de ces savoir-être aidera certainement l’équipe enseignante et les différents milieux de stage, dans leurs interventions pédagogiques. Il reste à souhaiter que la clientèle étudiante profite des résultats de cette recherche en étant mieux outillée pour développer ses compétences professionnelles.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Résumé : La phase haploïde de la spermatogenèse (spermiogenèse) est caractérisée par une modification importante de la structure de la chromatine et un changement de la topologie de l’ADN du spermatide. Les mécanismes par lesquels ce changement se produit ainsi que les protéines impliquées ne sont pas encore complètement élucidés. Mes travaux ont permis d’établir la présence de cassures bicaténaires transitoires pendant ce remodelage par l’essai des comètes et l’électrophorèse en champ pulsé. En procédant à des immunofluorescences sur coupes de tissus et en utilisant un extrait nucléaire hautement actif, la présence de topoisomérases ainsi que de marqueurs de systèmes de réparation a été confirmée. Les protéines de réparation identifiées font partie de systèmes sujets à l’erreur, donc cette refonte structurale de la chromatine pourrait être génétiquement instable et expliquer le biais paternel observé pour les mutations de novo dans de récentes études impliquant des criblages à haut débit. Une technique permettant l’immunocapture spécifique des cassures bicaténaires a été développée et appliquée sur des spermatides murins représentant différentes étapes de différenciation. Les résultats de séquençage à haut débit ont montré que les cassures bicaténaires (hotspots) de la spermiogenèse se produisent en majorité dans l’ADN intergénique, notamment dans les séquences LINE1, l’ADN satellite et les répétions simples. Les hotspots contiennent aussi des motifs de liaisons des protéines des familles FOX et PRDM, dont les fonctions sont entre autres de lier et remodeler localement la chromatine condensée. Aussi, le motif de liaison de la protéine BRCA1 se trouve enrichi dans les hotspots de cassures bicaténaires. Celle-ci agit entre autres dans la réparation de l’ADN par jonction terminale non-homologue (NHEJ) et dans la réparation des adduits ADN-topoisomérase. De façon remarquable, le motif de reconnaissance de la protéine SPO11, impliquée dans la formation des cassures méiotiques, a été enrichi dans les hotspots, ce qui suggère que la machinerie méiotique serait aussi utilisée pendant la spermiogenèse pour la formation des cassures. Enfin, bien que les hotspots se localisent plutôt dans les séquences intergéniques, les gènes ciblés sont impliqués dans le développement du cerveau et des neurones. Ces résultats sont en accord avec l’origine majoritairement paternelle observée des mutations de novo associées aux troubles du spectre de l’autisme et de la schizophrénie et leur augmentation avec l’âge du père. Puisque les processus du remodelage de la chromatine des spermatides sont conservés dans l’évolution, ces résultats suggèrent que le remodelage de la chromatine de la spermiogenèse représente un mécanisme additionnel contribuant à la formation de mutations de novo, expliquant le biais paternel observé pour certains types de mutations.
Resumo:
Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.
Resumo:
Ce mémoire s’intéresse à la représentation des lieux ainsi qu’à leur implication en tant que vecteurs d’idéologie dans le roman Neuf jours de haine, de Jean-Jules Richard. L’intérêt de ce sujet réside principalement dans le fait que Neuf jours de haine a été très peu étudié par la critique universitaire. L’objectif est de montrer que le roman de Jean-Jules Richard diffère des romans de guerre québécois de l’époque non seulement par son sujet original (la Deuxième Guerre mondiale telle que vécue sur le front de l’Europe de l’Ouest), mais également dans la dialectique existant entre les espaces civil et militaire. Le mémoire se divise en trois chapitres. Le premier est consacré au rappel des concepts théoriques nécessaires à l’analyse du roman. Dans celui-ci seront évoqués, entre autres, les notions d’espace, de lieu, de figure spatiale et de configuration spatiale. Les deux chapitres suivants seront consacrés à l’analyse de la représentation des lieux dans Neuf jours de haine. Le chapitre deux se penche sur les lieux diégétiques du roman, lesquels comprennent, entre autres, la tranchée, le champ, le jardin, la ferme, la forêt, la ville, la prison ainsi que l’eau et ses dérivés. Le troisième et dernier chapitre, quant à lui, aborde plutôt les lieux mémoriels de l’œuvre de Richard. Ceux-ci comprennent la prairie, la ferme, la ville, le village, la prison et le cimetière. Dans chacun de ces chapitres, non seulement les lieux sont analysés selon leur fonction diégétique et leur description par les personnages, mais ils sont aussi départagés selon leur degré de sécurité. Cette analyse permet, dans un premier temps, de montrer que la guerre vue par un soldat au front occasionne un renversement des notions traditionnelles de sécurité et d’hostilité. Dans un deuxième temps, celle-ci permet également de cerner l’importance des lieux dans la construction de la diégèse du récit.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.