927 resultados para Le Temps
Resumo:
Le réchauffement climatique affecte fortement les régions nordiques du Canada où le dégel du pergélisol discontinu à sa limite sud est accompagné du mouvement de la limite des arbres vers le nord en zone de pergélisol continu. Ces altérations faites aux paysages de la Taïga des Plaines sont le point de départ de plusieurs rétroactions puisque les changements apportés aux caractéristiques de la surface (au niveau de l’albédo, l’humidité du sol et la rugosité de la surface) vont à leur tour entraîner des modifications biophysiques et éventuellement influencer l’augmentation ou la diminution subséquente des températures et de l’humidité de l’air. Seulement, il y a un nombre important de facteurs d’influence qu’il est difficile de projeter toutes les boucles rétroactives qui surviendront avec les présents changements climatiques en régions nordiques. Dans le but de caractériser les échanges d’eau et d’énergie entre la surface et l’atmosphère de trois sites des Territoires du Nord-Ouest subissant les conséquences de l’augmentation des températures de l’air, la méthode micro-météorologique de covariance des turbulences fut utilisée en 2013 aux sites de Scotty Creek (forêt boréale et tourbière nordique en zone de pergélisol sporadique-discontinu), de Havikpak Creek (forêt boréale nordique en zone de pergélisol continu) et de Trail Valley Creek (toundra arctique en zone de pergélisol continu). En identifiant les procédés biotiques et abiotiques (ex. intensité lumineuse, disponibilité en eau, etc.) d’évapotranspiration aux trois sites, les contrôles par l’eau et l’énergie furent caractérisés et permirent ainsi de projeter une augmentation de la limitation en eau, mais surtout en énergie du site de Trail Valley Creek. La répartition de l’énergie projetée est semblable à celle de Havikpak Creek, avec une augmentation de la proportion du flux de chaleur sensible au détriment de celui latent suite aux modifications des caractéristiques de la surface (albédo, rugosité et humidité du sol). L’augmentation relative du flux d’énergie sensible laisse présager une boucle rétroactive positive de l’augmentation des températures de l’air à ce site. Ensuite, en comparant des données modelées de la hauteur de la couche limite planétaire et des données provenant de profils atmosphériques d’Environnement Canada entre les trois sites, les changements de hauteur de cette couche atmosphérique furent aussi projetés. Trail Valley Creek pourrait connaître une hausse de la hauteur de sa couche limite planétaire avec le temps alors que Scotty Creek connaîtrait une diminution de celle-ci. Ces changements au niveau des couches atmosphériques liés à la répartition des flux d’énergie dans les écosystèmes se répercuteraient alors sur le climat régional de façon difficile à déterminer pour l’instant. Les changements apportés désignent une boucle rétroactive positive des températures de l’air à Trail Valley Creek et l’inverse à Scotty Creek. Les deux axes d’analyse arrivent donc aux mêmes conclusions et soulignent aussi l’importance de l’influence mutuelle entre le climat et les caractéristiques spécifiques des écosystèmes à la surface.
Resumo:
Les stérosomes, des vésicules artificielles composées d’amphiphiles monoalkylés et d’un grand pourcentage de stérols, sont prometteurs dans plusieurs domaines comme les industries pharmaceutiques et alimentaires. Il existe des stérosomes chargés négativement, positivement et neutres. Dans ce mémoire, nous avons approfondi nos connaissances sur les propriétés physico-chimiques des stérosomes chargés : acide palmitique (PA)/stérol et stéarylamine (SA)/cholestérol (Chol). Premièrement, afin de mesurer la diffusion latérale de PA dans les membranes PA/stérol (30/70 mol/mol) par RMN à gradients pulsés, nous avons tenté de former des bicouches liquide-ordonnées (lo) orientées magnétiquement avec ce mélange. En s'inspirant de l’idée que l’ajout de 1,2-dihexanoyl-sn-glycéro-3-phosphocholine (DHPC), un lipide à courtes chaînes, dans le système 1,2-dimyristoyl-sn-glycéro-3-phosphocholine (DMPC) mène à la formation de bicouches orientées, nous avons étudié la formulation PA perdeutéré/acide hexanoïque (HA)/Chol avec une proportion molaire de 25/18/57 à plusieurs températures; aucune formation de bicouches orientées n’a été observée. Ce résultat pourrait être expliqué par la solubilisation partielle de HA en milieu aqueux. Alors, une quantité insuffisante serait insérée dans la bicouche pour induire son orientation. La formulation PA perdeutéré/DHPC/Chol n’a pas conduit, elle non plus, à des bicouches orientées magnétiquement à des températures et concentrations lipidiques variées. En étudiant le mélange DMPC/DHPC/Chol (67/17/14), nous avons remarqué que la présence de Chol inhibait l'orientation magnétique des bicouches. Tandis que le mélange DMPC/DHPC/stigmastérol (SS) avec les proportions molaires 67/19/14 et 72/21/7 conduisait à des bicouches orientées avec leur normale (n) perpendiculaire au champ magnétique à 40 °C et 50 °C. Ces résultats suggèrent que le mélange PA/SS avec une proportion de lipide à courtes chaînes, HA et DHPC, pourrait mener à des bicouches orientées magnétiquement. Le mélange PA/Chol avec un lipide à courtes chaînes pourrait aussi être étudié en présence des lanthanides. Deuxièmement, nous avons examiné la possibilité de moduler la libération de matériel encapsulé dans des liposomes essentiellement composés de PA et d’un stérol. Il est connu que le mélange PA/Chol (30/70) à pH ≥ 7,5 forme des liposomes très peu perméables. Il est avantageux de pouvoir moduler la perméabilité pour avoir un contrôle sur le temps de libération de leur contenu, qui est un paramètre de grande importance pour les formulations liposomales de médicaments. D’abord, il a été montré que l’acide oléique (OA)/Chol (30/70) est capable de former des vésicules, ce qui n’avait jamais été prouvé auparavant. Par contre, les bicouches OA/Chol (30/70) ne sont pas plus perméables que les bicouches PA/Chol (30/70). L’ajout de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphatidylcholine (POPC) dans le mélange PA/Chol n’augmente pas plus la perméabilité. En effet, les cinétiques de relargage de calcéine des vésicules PA/POPC/Chol (15/27.5/57.5), POPC/Chol (40/60) et POPC étaient très semblables à celle de PA/Chol (30/70). Il a été remarqué que les études littéraires se contredisent à propos de la perméabilité à la calcéine des bicouches de phosphatidylcholine (PC). L’explication de ces divergences est inconnue pour le moment. En remplaçant la moitié de la proportion molaire de Chol par le cholate de sodium (SC) dans le mélange PA/Chol (30/70), la membrane n’était pas plus apte à libérer son contenu. Il se pourrait que le SC se retrouvant dans la bicouche n’induit pas une diminution d’empilement. Il est aussi possible que le SC ne s'insère pas dans la membrane à cause de son hydrophilie considérable et il pourrait alors former seul des micelles. En remplaçant complètement le Chol par le sulfate de cholestérol (SChol), un stérol chargé négativement, et en préparant les vésicules à un bas pH, la formulation PA/SChol (30/70) mène à une très grande perméabilité à pH 7.5; le relargage est provoqué par un saut de pH. Nos travaux suggèrent qu'il serait possible de moduler la perméabilité des liposomes en les préparant avec le mélange PA/SChol/Chol en variant les proportions entre 30/63/7 à 30/70/0. Le diagramme pH-composition du mélange PA/SChol/Chol indique que ces proportions conduisent, à pH 7.4, à la coexistence de phases solide et lo en différentes proportions, ce qui pourrait moduler la perméabilité membranaire. Troisièmement, les résultats de perméabilité obtenus avec la calcéine et les difficultés survenues lors de l’extrusion des vésicules encapsulant cette sonde nous ont amené à nous demander si la calcéine interagit avec les bicouches chargées. L’impact de certains anions, dont la calcéine, a été examiné sur les bicouches chargées positivement SA/Chol (50/50). La calorimétrie différentielle à balayage (DSC, de l’anglais differential scanning calorimetry), indique qu’il n’y a aucune transition entre 25 et 90 °C pour les liposomes SA/Chol (50/50) à pH = 7.4. L’ajout de chlorure de sodim (375 mM) n’a pas mené à la formation d’agrégats et aucune transition n’a été observée sur le thermogramme. La formation d’agrégats macroscopiques instantanément après l’ajout d’hydrogénophosphate de sodium (125 mM), de sulfate de sodium (125 mM) et de calcéine (3 mM) a été observée. Une transition a été observée sur les thermogrammes en présence de ces sels. Les agrégats observés pourraient être associés à la transition de phase. L’effet des anions sur la température et l’enthalpie de transition suivent le même ordre que la série d’Hofmeister : sulfate > hydrogénophosphate > chlorure (pas de pic). La calcéine avait l’impact le plus prononcé sur l’agrégation; ceci illustre que la calcéine n’est pas une sonde fluorescente inerte avec le mélange SA/Chol. Elle pourrait être un chaotrope volumineux. De plus, les interactions SA-calcéine plus fortes, menant à l’agrégation des vésicules, que les interactions PC-calcéine pourraient s’expliquer par le fait que la SA est chargée positivement.
Resumo:
Établir une régulation de l’économie numérique au Sénégal représente un enjeu fondamental pour les gouvernants et l’ensemble des acteurs qui la compose. Suivant une démarche plus globalisée, d’énormes mutations normatives visant les rationalités et les mécanismes de réglementations ont évolué dans le temps donnant une place plus considérable au droit dans les politiques publiques des États. Différents modèles normatifs et institutionnels sont ainsi adaptés pour prendre en charge le phénomène de la convergence dépendamment du contexte réglementaire du pays. Pour ce qui est du contexte actuel du Sénégal, l’étanchéité des réglementations relatives aux télécommunications et à l’audiovisuel, désormais convergent, est fondée sur un modèle de réglementation sectorielle. Toutefois, leur convergence a provoqué un brouillage des frontières qui risque désormais de poser des conséquences énormes sur le plan normatif tel que des risques d’enchevêtrement sur le plan institutionnel ou réglementaire. Or au plan national, il n’existe à ce jour aucun texte visant à assoir les bases d’une régulation convergente. Ainsi, à la question de savoir si la régulation sectorielle est pertinente au regard de l’environnement du numérique marqué par la convergence, il s’est avéré qu’elle pourrait être adoptée comme modèle à court terme. Mais dans un but de réaliser des économies d’échelle pour réguler efficacement les différents secteurs et industries infrastructurelles, il faut un modèle de régulation unique marquée par la fusion de l’ARTP et du CNRA. D’une part, la régulation sectorielle permet d’accompagner la transition vers le numérique déjà lancée et d’autre part la régulation multisectorielle servira une fois la convergence des marchés établis.
Resumo:
De par leur nature scientifique, les sciences économiques visent, entre autre, à observer, qualifier, ainsi que quantifier des phénomènes économiques afin de pouvoir en dégager diverses prévisions. Ce mémoire se penche sur ces prévisions et, plus particulièrement, sur les facteurs pouvant biaiser les prévisionnistes au niveau comportemental en référant à l’effet d’ancrage, un biais propre à l’économie comportementale – une sous-discipline des sciences économiques. Il sera donc question de comprendre, par une analyse selon la discipline que représente l’économie comportementale, ce qui peut les affecter, avec un accent mis sur l’effet d’ancrage plus précisément. L’idée générale de ce dernier est qu’un agent peut être biaisé inconsciemment par la simple connaissance d’une valeur précédente lorsqu’il est demandé de faire une estimation ultérieure. De cette façon, une analyse des salaires des joueurs de la Ligne Nationale de Hockey (NHL) selon leurs performances passées et leurs caractéristiques personnelles, de 2007 à 2016, a été réalisée dans ce travail afin d’en dégager de possibles effets d’ancrage. Il est alors possible de constater que les directeurs généraux des équipes de la ligue agissent généralement de façon sensible et rationnelle lorsque vient le temps d’octroyer des contrats à des joueurs mais, néanmoins, une anomalie persiste lorsqu’on porte attention au rang auquel un joueur a été repêché. Dans un tel contexte, il semble pertinent de se référer à l’économie comportementale afin d’expliquer pourquoi le rang au repêchage reste une variable significative huit ans après l’entrée d’un joueur dans la NHL et qu’elle se comporte à l’inverse de ce que prévoit la théorie à ce sujet.
Resumo:
Les parents immigrants d’un enfant en situation de handicap présentent davantage de sources de vulnérabilité que d’autres parents. Cette situation peut diminuer le temps disponible et altérer leur implication dans le programme de réadaptation de leur enfant. L’objectif de cette thèse doctorale est de déterminer les attentes et les besoins en services de soutien formel de ces parents, afin de leur proposer une aide adaptée à leurs conditions de vie, et ceci, au fur et à mesure que l’enfant grandit. D’abord, une étude de la portée des écrits scientifiques est menée dans le but de mieux cerner les connaissances existantes en lien avec le recours aux services de soutien par les parents immigrants (chapitre 1). Les vingt publications sélectionnées indiquent que l’aide pour trouver de l’information s’avère la plus requise, que ce soit au sujet de la condition de l’enfant, du fonctionnement sociosanitaire et éducatif du pays d’accueil, ou encore des services de soutien. En outre, la transmission de ces informations peut se compliquer en cas de non-maîtrise de la langue du pays d’accueil ou lorsque des interculturelles apparaissent entre les parents immigrants et les différents intervenants rencontrés. Quant au non-recours aux aides formelles, il semble principalement dû à l’inadéquation entre l’aide concrète et les attentes des parents, au soutien informel reçu, à la méconnaissance des opportunités d’obtenir des services d’aide destinés aux parents, ou encore à un épuisement non ressenti. Compte tenu du nombre restreint d’écrits scientifiques recensés, des entrevues semi-dirigées sont conduites auprès de 28 parents immigrants d’un enfant en situation de handicap dans la province du Québec (Canada) dans le cadre d’une recherche de plus grande envergure portant sur la communication avec les intervenants en petite enfance (chapitre 2). Le but de cette deuxième étude est de mieux saisir l’utilisation des services de soutien formel par les parents immigrants et les facteurs influençant leurs choix. Il faut préciser que les propos recueillis restent très centrés sur les services destinés à l’enfant. Le soutien pour recevoir des informations et l’accompagnement à la décision apparaissent comme les aides formelles les plus utilisées par les participants, suivies du soutien à l’éducation, de l’écoute active et de l’aide financière. Cinq facteurs semblent guider le recours au soutien formel qui est destiné aux parents, soit : (1) leur perception de la condition de leur enfant, (2) l’accès à l’information, (3) leurs stratégies et leur capacité d’agir, (4) l’implication du réseau informel, et (5) leur perception de leur besoin de services de soutien. Suite à ces résultats, de nouvelles entrevues semi-dirigées sont menées auprès de huit parents immigrants d’enfants d’âges différents à Montréal et à Québec. Cette démarche permet d’approfondir le thème du recours au soutien formel destiné aux parents, et ce, au fur et à mesure que l’enfant grandit (chapitre 3). Le guide d’entretien conçu pour cette étude met l’emphase sur les attentes et les besoins des parents immigrants afin d’atteindre un équilibre dans toutes les sphères de leur vie. Suite à une analyse thématique exploratoire du discours des parents et par l’application d’un modèle de stress et de coping, sept principales sources de stress sont mises en évidence : (1) le parcours migratoire, (2) la condition de l’enfant, (3) l’organisation sociosanitaire du pays d’accueil, (4) l’insertion professionnelle, (5) la relation de couple, (6) le réseau social, et (7) l’état de santé du parent. Afin de faire face à ces circonstances difficiles, les parents immigrants recourent principalement à de l’aide financière, du soutien pour obtenir des informations, de l’accompagnement à la décision, de l’aide en éducation et pour le transport. La satisfaction exprimée varie, notamment en raison des divergences entre les attentes et les services obtenus (soutien en éducation, écoute active, services de garde), ainsi qu’en termes de quantité d’aide reçue (soutien financier, informations, accompagnement à la décision). Un modèle théorique original est proposé afin d’illustrer le contexte parental en termes d’attentes, de besoins et de recours au soutien. Si certains moments de la vie de l’enfant peuvent entraîner un stress supplémentaire pour les parents (annonce du diagnostic, arrivée à l’école, transition à l’âge adulte), le parcours migratoire semble davantage expliquer le recours aux aides formelles.
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Méthodologie: Modèle de régression quantile de variable instrumentale pour données de Panel utilisant la fonction de production partielle
Resumo:
Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.
Resumo:
Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Cette recherche a pour origine un problème concret vécu au Cégep de Saint-Jérôme, plus particulièrement lors des cours de type «stage». D’entrée de jeu et afin de nous situer, nous conviendrons de la définition suivante du stage. Le problème auquel nous essaierons d’apporter des solutions, dans la présente recherche, se présente depuis plusieurs années en situation d'évaluation sommative des cours de type «stage» plus particulièrement lorsque les enseignants ont à déterminer la note finale. Les enseignants se réunissent en groupe de superviseurs de stages ou plus spécifiquement en groupe d’experts et discutent des résultats des étudiants. Malgré que des grilles de stages aient été expérimentées par l’équipe des enseignants à la suite d’une recherche menée par Delisle et Cantin (1994), le processus permettant de porter un jugement aussi juste que possible sur le niveau d’atteinte de chacune des compétences par l’élève demeure problématique. Ainsi il en découle une difficulté à dégager un portrait juste de la situation de l’élève afin d’en arriver à une notation qui rejoigne le jugement expert de l’enseignant. En cette matière, la première question qui nous vînt à l'esprit, question générale et préliminaire, consistait à nous demander à quoi faisons-nous référence lorsque nous parlons d’évaluation sommative des compétences en stage ? En d’autres mots, quel processus permettrait de fixer un seuil de réussite reflétant le plus justement possible le jugement de l’enseignant par rapport au niveau d’atteinte par l’élève de chacune des compétences? Le premier chapitre de notre recherche élabore une problématique observant la réalité du département de Techniques d’éducation en services de garde du Cégep de Saint-Jérôme. : nous sommes en mesure dès lors de poser une question spécifique servant d’amorce à notre recherche. Puis, nous présentons l’ensemble des outils du programme spécifique auquel nous apportons notre attention. Enfin nous apportons des précisions sur l'objectif, les limites et le genre de la recherche qui nous caractérise. Le deuxième chapitre fait état des connaissances sur la question, plus spécifiquement sur les concepts principaux de notre recherche. Les écrits que nous avons retenus sont principalement des rapports de recherche, des articles et des monographies spécialisés dans le domaine de la mesure et de l’évaluation. Le troisième chapitre de notre recherche présente le cadre de référence proposant une méthode d’établissement de standards dans un contexte d’évaluation des performances. Ce cadre de référence que nous avons retenu nous permettra de procéder à l’élaboration d’une méthode d’utilisation. Le quatrième chapitre décrira donc, à la suite de l’élaboration du cadre opératoire, les conditions de la mise en oeuvre et amorcera une démarche critique de la méthode choisie. En conclusion, nous rappellerons le chemin parcouru. Par la suite, nous ferons état des réserves que nous avons par rapport à différents aspects de notre recherche. Pour terminer, nous dégagerons les opportunités dans le temps et dans l’espace qui se dégagent dans le contexte de l’approche par compétences.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.