962 resultados para Activité en ondes lentes


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’eau est un enjeu majeur en environnement autant d’un point de vue de sa qualité que de sa quantité. Cependant, des pénuries d’eau douce se font de plus en plus sentir à travers le monde. Par ailleurs, les États-Unis n’en sont pas exemptés. En effet, l’ouest du pays constate que les réserves diminuent constamment. Dans le passé, une compagnie californienne s’était déjà tournée vers le Canada afin d’en acheter une certaine quantité en vrac dans le dessein d’en assurer son approvisionnement. Le Québec, étant un voisin des Américains, ne peut se permettre d’écarter la question de l’exportation d’eau en vrac, d’autant plus qu’il est évident qu’une activité de cette envergure crée des impacts sur l’environnement et la société. C’est pourquoi cet essai a pour objectif d’identifier si la vente de l’eau douce en vrac du Québec vers les États-Unis implique des conséquences pour les citoyens québécois. Une analyse multicritère a été réalisée afin d’atteindre l’objectif principal de cet l’essai. Cette dernière consiste en l’évaluation des différents aspects de l’exportation d’eau douce selon une optique sociale. Ainsi, neuf critères ont été créés. Ils sont répartis en quatre catégories, soit sociale, économique, législative et les relations internationales. Suite aux résultats obtenus lors de l’évaluation des critères, il est possible d’affirmer que la vente de l’eau québécoise aurait des incidences sur la population. Cette analyse nous permet de conclure que, d’un côté, les citoyens accordent une grande valeur à la ressource et qu’ils seraient plutôt d’accord à exporter l’eau. Néanmoins, d’un autre côté, les critères concernant la relation de pouvoir entre le pays amont et celui aval ainsi que les conséquences qu’implique l’Accord de libre-échange nord-américain viennent causer des répercussions négatives pour les citoyens. Les principales conséquences négatives concernent davantage le milieu international. Par contre, le Québec a peu ou pas d’influence à ce niveau, c’est pourquoi l’ensemble des recommandations effectuées porte sur des dispositions que la province pourrait envisager à l’interne afin de limiter les incidences sur sa population et son environnement. L’accent est donc mis sur des mesures permettant de mieux gérer la ressource et de la consommer de manière responsable. Ainsi, il est recommandé de mettre en place une gestion intégrée de l’eau par bassin versant, de fixer une quantité maximale pour l’exportation, d’installer des compteurs d’eau, de revoir la facturation de l’eau et, finalement, communiquer l’information aux citoyens dans l’optique de les renseigner, mais aussi de les impliquer dans la protection de l’eau au Québec.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche exploratoire examine le concept émergent de « paysage sous-marin » présenté sous la forme d’une étude cas — celui du jardin des Escoumins — situé dans le parc marin du Saguenay – Saint-Laurent, au Québec. On constate, depuis les dernières décennies, deux complications qui s’interposent au concept de paysage sous-marin puisque d’une part on examine un divorce entre les Québécois et le fleuve Saint-Laurent puis d’une autre on observe l’omission fréquente de sa reconnaissance dans la littérature géographique. En somme, deux questions de recherche en découlent, soit : Quels sont les procédés employés pendant le XXe et XXIe siècle dans la construction des paysages sous-marins au Québec ? et : Quel est le rôle des différents acteurs, et plus précisément celui des plongeurs, dans la mise en valeur et la reconnaissance du paysage sous-marin des Escoumins ? La recherche a été accomplie à travers une revue extensive de la littérature régionale et mondiale portant sur ce concept atypique. Par la suite, une enquête de 35 questions soumises à un échantillon de 73 plongeurs québécois a été analysée, ainsi que sept entrevues semi-dirigées avec des acteurs clefs du domaine. Puis, l’étude et la cartographie des relations spatiales entre les plongeurs et les lieux de prédilection de leur activité ont été réalisés. Les résultats démontrent des interrelations complexes entre les caractéristiques de construction de ces paysages sublimes (le territoire, la nordicité, la pratique d’une activité de loisir, la technologie, l’esthétisme ainsi que l’essor économique et touristique) et les acteurs clefs. Comme la « découverte » des paysages alpins au XVIIIe siècle en Europe, la lente mise en valeur des paysages sous-marins au Québec est causée par la marginalité des lieux. Ainsi, la reconnaissance des paysages subaquatiques est en pleine effervescence au Québec et l’intégration de ce concept en aménagement et en planification touristiques devient capitale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche présente les résultats d'une étude portant sur les éléments de la performance à l'exportation de vingt-trois entreprises tunisiennes de confection, appréhendées par le niveau et la croissance de leurs ventes à l'exportation. Ce travail part de l'hypothèse que cette performance dépend d'une série de facteurs dont certains sont internes à la firme et d'autres appartiennent à son environnement externe. Un modèle, reliant plus de 74 variables indépendantes aux deux critères de la performance (le niveau des exportations et la croissance de celles-ci), a été élaboré. Il a permis de cerner l'influence de plusieurs variables inhérentes à la firme et à son preneur de décision sur les mesures de la performance. Il a pu également déceler l'impact d'un certain nombre de variables attitudinales et de perception sur la performance export. La collecte des données a eu lieu en Tunisie durant l'été 1990. Les résultats de l'étude montrent que des critères comme l'âge du preneur de décision, l'ancienneté de l'entreprise et l'expérience internationale de cette dernière affectent aussi bien le niveau que la croissance des exportations. La perception de l'activité d'exportation influe davantage sur la croissance que sur le niveau des exportations. Le choix de la stratégie marketing à l'export affecte considérablement le succès de celle-ci à l'échelle internationale. Les données recueillies traduisent également des divergences de profils entre les exportateurs performants et les exportateurs non-performants. La recherche autorise, par ailleurs, une meilleure compréhension des spécificités de la branche de la confection tunisienne. En dépit des difficultés rencontrées, la confection de cette thèse fut, pour nous, un travail passionnant. Nous invitons le lecteur, à venir partager notre intérêt et espérons pouvoir lui transmettre notre enthousiasme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs études se sont penchées sur les effets de l’activité physique maternelle sur le poids du nouveau-né, un paramètre reflétant l’environnement intra-utérin associé au risque ultérieur d’obésité et de problèmes métaboliques. Devant les taux alarmants d’obésité infantile à travers le monde, l’identification d’interventions préventives efficaces devient un enjeu majeur dans la lutte contre l’obésité et ses complications. L’activité physique maternelle pourrait être une avenue intéressante, étant donné ses effets bénéfiques sur le gain de poids et le profil métabolique maternels et son potentiel de diminution du poids de naissance de l’enfant. Cependant, la dose optimale d’activité physique et ses effets sur la composition corporelle du nouveau-né sont encore méconnus. Par ailleurs, la majorité des femmes enceintes ne rencontrent pas les recommandations en matière d’activité physique durant la grossesse et les femmes obèses, chez qui les bienfaits de l’activité physique pourraient possiblement avoir le plus grand impact, présentent souvent les niveaux les plus bas. Curieusement, peu d’études ont évalué les effets d’une intervention d’activité physique durant la grossesse dans cette population. Ainsi, avant d’envisager l’activité physique comme une intervention thérapeutique non-pharmacologique durant la grossesse, il importe d’en évaluer la faisabilité et la sécurité et d’en connaître extensivement les effets. Notamment, il s’avère primordial de vérifier s’il est possible d’augmenter en toute sécurité les niveaux d’activité physique durant la grossesse, particulièrement chez les femmes obèses, et de distinguer les effets spécifiques de différents stimuli d’activité physique (variant en type, volume, intensité et moment de la grossesse) sur la croissance fœtale. Dans ce contexte, nous avons dans un premier temps entrepris une revue systématique de la littérature des études observationnelles portant sur l’association entre l’activité physique maternelle et les paramètres de croissance fœtale mesurés à la naissance. Dans un deuxième temps, 2 études de cohortes évaluant l’impact du type, du volume, de l’intensité et du trimestre de pratique de l’activité physique ont été menées afin de complémenter et d’approfondir les résultats de la revue systématique. Finalement, une étude d’intervention randomisée a été réalisée afin d’évaluer s’il est possible d’améliorer les niveaux d’activité physique durant la grossesse chez les femmes enceintes obèses. Nos travaux ont permis d’illustrer l’influence variable que différents stimuli d’activité physique maternelle peuvent avoir sur l’anthropométrie néonatale. La revue systématique a montré qu’un volume moyen d’activité physique est associé à une augmentation du poids de naissance comparativement à un volume plus faible, alors qu’un volume élevé est associé à une diminution du poids de naissance, comparativement à un volume plus faible. Nos données suggèrent également que l’association entre l’activité physique maternelle et le poids de naissance varie en présence de certaines caractéristiques maternelles. Notamment, nous avons montré pour la première fois que l’activité physique vigoureuse pratiquée en début de grossesse était associée à une diminution importante du poids de naissance chez les femmes qui reçoivent un diagnostic de pré-éclampsie en fin de grossesse. L’importance de l’intensité de l’activité physique dans la relation entre l’activité physique maternelle et la croissance fœtale a également été soulignée pour la première fois dans notre étude de cohorte avec mesure de la composition corporelle néonatale. Contrairement à l’activité physique d’intensité modérée, l’activité physique vigoureuse en début de grossesse est associée à une diminution du poids de naissance, principalement en raison d’une adiposité néonatale réduite. Finalement, les résultats de l’essai randomisé ont permis d’établir la faisabilité d’une intervention d’activité physique supervisée visant à augmenter la pratique d’activité physique chez des femmes enceintes obèses et le potentiel d’une telle intervention à favoriser le maintien de la condition physique et une meilleure gestion du gain de poids chez ces femmes. L’ensemble de ces résultats permet de mieux cerner l’impact de l’activité physique maternelle sur la croissance fœtale, en fonction des caractéristiques spécifiques du stimulus d’activité physique mais également de la population étudiée. La faisabilité d’une intervention d’activité physique prénatale dans une population de femmes obèses laisse entrevoir de nouvelles possibilités dans la prévention de l’obésité infantile et de ses complications. L’identification d’une dose optimale d’activité physique favorisant la santé de l’enfant à court et à long terme dans diverses populations de femmes enceintes et l’identification des facteurs permettant une meilleure adhérence aux recommandations qui en découleront constituent des pistes de recherche essentielles à la lutte contre l’obésité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[...] J'ai toujours cru à l'importance de la lecture pour le développement d'un enfant et je me suis souvent interrogé sur ma propre approche pédagogique de la lecture. De plus, j'ai souvent constaté un certain désintéressement des jeunes vis-à-vis la lecture, effet probable d'une forte concurrence due à des activités qui captent plus leurs intérêts. Toujours est-il que désirant travailler dans ce domaine de la lecture, ne sachant trop quelles orientations donner à ce travail, j'ai entrepris une certaine réflexion avec mon directeur d'essai M. Raymond Hébert. Lors de discussions que je dirais orientées par M. Hébert, j'ai eu le goût d'approfondir ou même, jusqu'à un certain point, de découvrir les intérêts en lecture de mes propres élèves. Comme beaucoup de pédagogues, il ne m'était jamais venu à l'idée de chercher à savoir ce vers quoi s'orientent leurs goûts en lecture. Donc, dans ce travail, j'ai cherché à comprendre " l'enfant lecteur " que je côtoie quotidiennement. Je ne parle pas de techniques de lecture. Je ne cherche pas à corriger des lacunes ou encore à trouver des réponses à leur plus ou moins grand intérêt pour l'activité de lecture. J'ai voulu avant tout résoudre un problème bien précis pour moi, la connaissance des intérêts propres de mes élèves pour la lecture. Laissant de côté certaines intuitions quant aux intérêts des enfants en lecture, j'ai entrepris d'en faire une certaine analyse par une enquête la plus exhaustive possible auprès de quelques 64 élèves avec lesquels je travaille. Puis en deuxième partie, on trouvera un énoncé de principes qui devraient guider notre action pédagogique dans nos activités scolaires de lecture. De plus, ce qui m'a grandement aidé à mettre de l'ordre ou à clarifier mes idées, sont les nombreuses lectures suggérées par mon directeur d'essai. J'y ai trouvé une nouvelle vision du domaine de la lecture et surtout du phénomène complexe des motivations et besoins à lire chez l'enfant en développement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tout le monde convient aisément que la société actuelle exige d'un diplômé du collégial qu'il sache lire: les besoins de sa vie personnelle et sociale tout comme ses études ultérieures et sa vie professionnelle l'exigent. De plus, on reconnaît volontiers que développer ses habiletés en lecture permet à l'individu d'augmenter son autonomie dans l'apprentissage. Malheureusement, des indices nous incitent à croire que beaucoup de cégépiens rencontrent des difficultés importantes en lecture et que ces difficultés menacent leurs succès scolaires. Nous interrogeant sur les moyens appropriés à développer le goût et l'habileté à lire, nous examinons les pratiques pédagogiques et les recherches en français au collégial. Nous n'y trouvons malheureusement ni les outils théoriques ni les instruments d'évaluation qui nous permettraient d'établir les caractéristiques réelles des cégépiens en lecture et d'orienter leur formation en tenant compte des besoins identifiés. Cependant, un examen des théories cognitivistes en lecture, des théories en linguistique, des théories de la motivation et de l'engagement cognitif, des travaux de didacticiens nous permet de découvrir de nombreux modèles théoriques et de nombreuses applications pédagogiques intéressantes de ces propositions théoriques. Pourtant, aucun des théoriciens ou chercheurs consultés ne propose un modèle centré sur le lecteur et immédiatement applicable à l'interprétation des caractéristiques du lecteur cégépien. C'est pourquoi, nous mettons de l'avant nos propres propositions pour définir un cadre théorique de la lecture et un modèle du lecteur qui s'appuient sur les théories linguistiques et cognitivistes étudiées. Le cadre théorique propose une définition de la lecture, identifie les trois facteurs fondamentaux de l'activité de lire, et expose un ensemble de principes regroupant les éléments essentiels pour caractériser la lecture. Ce cadre théorique donne une place centrale au lecteur dans un ensemble d'interactions mettant en cause également le texte et le contexte. Le modèle de lecteur se conforme au cadre théorique et présente les quatre composantes retenues pour représenter le lecteur : ses compétences langagières et cognitives, ses processus métacognitifs et ses traits affectifs. Pour chacune de ces composantes, le modèle propose des listes de descripteurs précis qui devraient permettre de planifier une évaluation diagnostique adéquate. Le modèle est complété par une réflexion sur les variables à retenir dans l'évaluation du lecteur cégépien et par quelques descriptions de certains types de lecteur chez qui le cégépien trouve probablement ses propres traits: le lecteur de plus grande maturité, le lecteur moins habile, le lecteur expert. Ce cadre et ce modèle théoriques ont subi deux épreuves de validation: l'une concerne sa validité interne d'un point de vue théorique et fut effectuée auprès de spécialistes en lecture, en linguistique, en psychologie cognitive. L'autre concerne sa validité interne vue sous un angle écologique et fut effectuée auprès de pro fesseurs experts de l'enseignement collégial. À la suite de ces opérations, nous avons apporté quelques corrections à nos propositions théoriques qui nous semblent en augmenter et la validité interne et la validité écologique. Néanmoins, d'autres changements importants pourront être intégrés, lors de travaux ultérieurs, pour augmenter la cohérence interne du modèle et son adéquation aux objectifs d'évaluation. À plus long terme, nos propositions théoriques permettront de concevoir un dispositif d'évaluation diagnostique. Les données obtenues grâce à ce dispositif pourront alors être analysées pour établir des profils de lecteurs cégépiens et pour développer un plan de formation qui réponde aux besoins mis en évidence par ces profils.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[…] Cet essai est une recherche-action explorative et descriptive d'un type de formation continue. Ce travail vise à rapporter, décrire une démarche d'objectivation des pratiques avec des enseignants. De plus, il se veut un moyen précis pour approfondir une réflexion sur une expérience vécue. L'étude se divise en trois grandes parties. Dans la première, nous mettrons en relation la situation actuelle en le vécu pédagogique de l'enseignant qui servira de base à la recherche, le tout confronté à certains modèles théoriques qui serviront de guides tout au long de l'expérience décrite. La deuxième partie vise à décrire l'expérience et enfin la troisième vient tirer des conclusions sur la portée pratique de l’expérience et les orientations possibles.