719 resultados para Procédure pénale
Resumo:
Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.
Resumo:
L’imagerie musicale involontaire (IMIN) est un phénomène mental extrêmement commun. Il peut être défini en tant que type d’imagerie mentale musicale qui devient consciente sans effort ou intentionnalité et qui n’est pas pathologique. La forme la plus connue d’IMIN est le « ver d’oreille », qui se présente généralement comme un court extrait musical tournant en boucle en tête et dont on se débarrasse difficilement. L’objectif principal de la présente thèse est d’investiguer les mécanismes cognitifs sous-tendant le phénomène puisque, malgré l’intérêt répandu dans les médias populaires, son étude expérimentale est récente et un modèle intégré n’a pas encore été proposé. Dans la première étude, l’induction expérimentale a été tentée et les caractéristiques des images mentales d’épisodes d’IMIN ont été investiguées. Dans le laboratoire, des chansons accrocheuses (versus des proverbes) ont été présentées répétitivement aux participants qui devaient ensuite les chanter le plus fidèlement possible. Ils ont par après quitté le laboratoire, une enregistreuse numérique en mains, avec la consigne d’enregistrer une reproduction vocale la plus fidèle possible de ce qu’ils avaient en tête lors de tous leurs épisodes d’IMIN sur une période de quatre jours, ainsi que de décrire leur timbre. L’expérience a été répétée deux semaines plus tard. Douze des dix-huit participants du groupe expérimental ont rapporté des pièces induites comme épisodes d’IMIN, ce qui confirme l’efficacité de la procédure d’induction. La tonalité et le tempo des productions ont ensuite été analysés et comparés à ceux des pièces originales. Similairement pour les épisodes d’IMIN induits et les autres, les tempi produits et, dans une moindre mesure pour les non-musiciens, les tonalités étaient proches des originaux. Le timbre décrit était généralement une version simplifiée de l’original (un instrument et/ou une voix). Trois études se sont ensuite intéressées au lien entre le potentiel d’IMIN et la mémorabilité. Dans une étude préliminaire, 150 chansons du palmarès francophone radiophonique ont été évaluées en ligne par 164 participants, sur leur niveau de familiarité, d’appréciation et de potentiel d’IMIN. Les pièces ont ensuite été divisées en groupes de stimuli à faible et à fort potentiel d’IMIN, qui ont été utilisés dans une tâche typique de rappel libre/reconnaissance, premièrement avec des francophones (pour qui les pièces étaient familières) et ensuite avec des non-francophones (pour qui les pièces étaient non-familières). Globalement, les pièces à fort potentiel d’IMIN étaient mieux rappelées et reconnues que les pièces à faible potentiel. Une dernière étude a investigué l’impact de la variabilité inter-stimulus du timbre sur les résultats précédents, en demandant à une chanteuse d’enregistrer les lignes vocales des pièces et en répétant l’expérience avec ces nouveaux stimuli. La différence précédemment observée entre les stimuli à fort et à faible potentiel d’IMIN dans la tâche de reconnaissance a ainsi disparu, ce qui suggère que le timbre est une caractéristique importante pour le potentiel d’IMIN. En guise de conclusion, nous suggérons que les phénomènes mentaux et les mécanismes cognitifs jouant un rôle dans les autres types de souvenirs involontaires peuvent aussi s’appliquer à l’IMIN. Dépendamment du contexte, la récupération mnésique des pièces peut résulter de la répétition en mémoire à court terme, de l’amorçage à court et long terme ou de l’indiçage provenant de stimuli dans l’environnement ou les pensées. Une des plus importantes différences observables entre l’IMIN et les autres souvenirs involontaires est la répétition. Nous proposons que la nature même de la musique, qui est définie par la répétition à un niveau micro- et macro-structurel en est responsable.
Resumo:
Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.
Resumo:
The CATARINA Leg1 cruise was carried out from June 22 to July 24 2012 on board the B/O Sarmiento de Gamboa, under the scientific supervision of Aida Rios (CSIC-IIM). It included the occurrence of the OVIDE hydrological section that was performed in June 2002, 2004, 2006, 2008 and 2010, as part of the CLIVAR program (name A25) ), and under the supervision of Herlé Mercier (CNRSLPO). This section begins near Lisbon (Portugal), runs through the West European Basin and the Iceland Basin, crosses the Reykjanes Ridge (300 miles north of Charlie-Gibbs Fracture Zone, and ends at Cape Hoppe (southeast tip of Greenland). The objective of this repeated hydrological section is to monitor the variability of water mass properties and main current transports in the basin, complementing the international observation array relevant for climate studies. In addition, the Labrador Sea was partly sampled (stations 101-108) between Greenland and Newfoundland, but heavy weather conditions prevented the achievement of the section south of 53°40’N. The quality of CTD data is essential to reach the first objective of the CATARINA project, i.e. to quantify the Meridional Overturning Circulation and water mass ventilation changes and their effect on the changes in the anthropogenic carbon ocean uptake and storage capacity. The CATARINA project was mainly funded by the Spanish Ministry of Sciences and Innovation and co-funded by the Fondo Europeo de Desarrollo Regional. The hydrological OVIDE section includes 95 surface-bottom stations from coast to coast, collecting profiles of temperature, salinity, oxygen and currents, spaced by 2 to 25 Nm depending on the steepness of the topography. The position of the stations closely follows that of OVIDE 2002. In addition, 8 stations were carried out in the Labrador Sea. From the 24 bottles closed at various depth at each stations, samples of sea water are used for salinity and oxygen calibration, and for measurements of biogeochemical components that are not reported here. The data were acquired with a Seabird CTD (SBE911+) and an SBE43 for the dissolved oxygen, belonging to the Spanish UTM group. The software SBE data processing was used after decoding and cleaning the raw data. Then, the LPO matlab toolbox was used to calibrate and bin the data as it was done for the previous OVIDE cruises, using on the one hand pre and post-cruise calibration results for the pressure and temperature sensors (done at Ifremer) and on the other hand the water samples of the 24 bottles of the rosette at each station for the salinity and dissolved oxygen data. A final accuracy of 0.002°C, 0.002 psu and 0.04 ml/l (2.3 umol/kg) was obtained on final profiles of temperature, salinity and dissolved oxygen, compatible with international requirements issued from the WOCE program.
Resumo:
Au cours des vingt dernières années, l’anesthésie régionale est devenue, autant en médecine vétérinaire qu’humaine, un outil essentiel à l’élaboration de protocoles analgésiques péri-opératoires. Parmi l’éventail de techniques mises au point en anesthésie canine, le bloc paravertébral du plexus vertébral (PBPB) et sa version modifiée sont d’un grand intérêt pour toute procédure du membre thoracique, dans sa portion proximale. Toutefois, l’essentiel des données publiées à ce jour provient d’études colorimétriques, sans évaluation clinique, et peu d’information est disponible sur les techniques de localisation nerveuse envisageables à ce site. Notre étude visait à décrire une approche échoguidée du PBPB modifié, puis à caractériser ses paramètres pharmacocinétiques et pharmacodynamiques après administration de lidocaïne (LI) ou lidocaïne adrénalinée (LA). Huit chiens ont été inclus dans un protocole prospectif, randomisé, en aveugle et croisé, réparti sur trois périodes. L’impact pharmacodynamique du bloc effectué avec LI ou LA a été évalué régulièrement pour 180 min suivant son exécution. Le traitement à l’adrénaline n’a pas démontré d’impact significatif (P = 0,845) sur la durée du bloc sensitif, tel qu’évalué par un stimulus douloureux mécanique appliqué aux dermatomes ciblés. À l’opposé, l’atteinte proprioceptive évaluée par la démarche a été trouvée prolongée (P = 0,027) et le bloc moteur mesuré par le pic de force verticale (PVF) au trot sur la plaque de force s’est avéré plus marqué (PVF réduit; P = 0,007) sous LA. À l’arrêt comme au trot, le nadir de la courbe PVF-temps a été trouvé retardé (P < 0,005) et la pente ascendante de retour aux valeurs normales adoucie (P = 0,005). Parallèlement aux évaluations cliniques, des échantillons plasmatiques ont été collectés régulièrement afin de quantifier et décrire le devenir pharmacocinétique de la lidocaïne. Parmi les trois élaborés, un modèle bi-compartimental doté d’une double absorption asynchrone d’ordre zéro a finalement été sélectionné et appliqué aux données expérimentales. Sous LA, la Cmax a été trouvée significativement diminuée (P < 0,001), les phases d’absorption prolongées [P < 0,020 (Dur1) et P < 0,001 (Dur2)] et leurs constantes réduites [P = 0,046(k01) et P < 0,001 (k02)], le tout en concordance avec les effets proprioceptifs et moteurs rapportés. Bien que l’extrapolation du dosage soit maintenant théoriquement envisageable à partir du modèle mis en lumière ici, des études supplémentaires sont encore nécessaires afin d’établir un protocole de PBPB d’intérêt clinique. L’analyse sur plaque de force pourrait alors devenir un outil de choix pour évaluer l’efficacité du bloc dans un cadre expérimental.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Au cours des vingt dernières années, l’anesthésie régionale est devenue, autant en médecine vétérinaire qu’humaine, un outil essentiel à l’élaboration de protocoles analgésiques péri-opératoires. Parmi l’éventail de techniques mises au point en anesthésie canine, le bloc paravertébral du plexus vertébral (PBPB) et sa version modifiée sont d’un grand intérêt pour toute procédure du membre thoracique, dans sa portion proximale. Toutefois, l’essentiel des données publiées à ce jour provient d’études colorimétriques, sans évaluation clinique, et peu d’information est disponible sur les techniques de localisation nerveuse envisageables à ce site. Notre étude visait à décrire une approche échoguidée du PBPB modifié, puis à caractériser ses paramètres pharmacocinétiques et pharmacodynamiques après administration de lidocaïne (LI) ou lidocaïne adrénalinée (LA). Huit chiens ont été inclus dans un protocole prospectif, randomisé, en aveugle et croisé, réparti sur trois périodes. L’impact pharmacodynamique du bloc effectué avec LI ou LA a été évalué régulièrement pour 180 min suivant son exécution. Le traitement à l’adrénaline n’a pas démontré d’impact significatif (P = 0,845) sur la durée du bloc sensitif, tel qu’évalué par un stimulus douloureux mécanique appliqué aux dermatomes ciblés. À l’opposé, l’atteinte proprioceptive évaluée par la démarche a été trouvée prolongée (P = 0,027) et le bloc moteur mesuré par le pic de force verticale (PVF) au trot sur la plaque de force s’est avéré plus marqué (PVF réduit; P = 0,007) sous LA. À l’arrêt comme au trot, le nadir de la courbe PVF-temps a été trouvé retardé (P < 0,005) et la pente ascendante de retour aux valeurs normales adoucie (P = 0,005). Parallèlement aux évaluations cliniques, des échantillons plasmatiques ont été collectés régulièrement afin de quantifier et décrire le devenir pharmacocinétique de la lidocaïne. Parmi les trois élaborés, un modèle bi-compartimental doté d’une double absorption asynchrone d’ordre zéro a finalement été sélectionné et appliqué aux données expérimentales. Sous LA, la Cmax a été trouvée significativement diminuée (P < 0,001), les phases d’absorption prolongées [P < 0,020 (Dur1) et P < 0,001 (Dur2)] et leurs constantes réduites [P = 0,046(k01) et P < 0,001 (k02)], le tout en concordance avec les effets proprioceptifs et moteurs rapportés. Bien que l’extrapolation du dosage soit maintenant théoriquement envisageable à partir du modèle mis en lumière ici, des études supplémentaires sont encore nécessaires afin d’établir un protocole de PBPB d’intérêt clinique. L’analyse sur plaque de force pourrait alors devenir un outil de choix pour évaluer l’efficacité du bloc dans un cadre expérimental.
Resumo:
Le financement des municipalités québécoises repose en majeure partie sur des revenus autonomes, dont la principale source découle de leur pouvoir de taxer la richesse foncière. Par conséquent, le législateur, voulant assurer la stabilité financière des municipalités, a strictement encadré le processus de confection et de révision des évaluations foncières par plusieurs lois et règlements. Ceci n’a tout de même pas empêché l’augmentation des demandes de contestations à chaque nouveau rôle. Débutant par une demande de révision administrative, à l’aide d’un simple formulaire, le litige entre la municipalité et le contribuable peut se poursuivre devant le Tribunal administratif du Québec et même la Cour du Québec, la Cour supérieure et la Cour d’appel, où la procédure devient de plus en plus exigeante. La transition du processus administratif à judiciaire crée parfois une certaine friction au sein de la jurisprudence, notamment au niveau de la déférence à accorder à l’instance spécialisée, ou encore à l’égard de la souplesse des règles de preuve applicables devant cette dernière. Par une étude positiviste du droit, nous analysons tout d’abord la procédure de confection du rôle foncier, en exposant les acteurs et leurs responsabilités, ainsi que les concepts fondamentaux dans l’établissement de la valeur réelle des immeubles. Ensuite, nous retraçons chacune des étapes de la contestation d’une inscription au rôle, en y recensant les diverses règles de compétence, de preuve et de procédure applicables à chaque instance. À l’aide de nombreux exemples jurisprudentiels, nous tentons de mettre en lumière les différentes interprétations que font les tribunaux de la Loi sur la fiscalité municipale et autres législations connexes.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Le financement des municipalités québécoises repose en majeure partie sur des revenus autonomes, dont la principale source découle de leur pouvoir de taxer la richesse foncière. Par conséquent, le législateur, voulant assurer la stabilité financière des municipalités, a strictement encadré le processus de confection et de révision des évaluations foncières par plusieurs lois et règlements. Ceci n’a tout de même pas empêché l’augmentation des demandes de contestations à chaque nouveau rôle. Débutant par une demande de révision administrative, à l’aide d’un simple formulaire, le litige entre la municipalité et le contribuable peut se poursuivre devant le Tribunal administratif du Québec et même la Cour du Québec, la Cour supérieure et la Cour d’appel, où la procédure devient de plus en plus exigeante. La transition du processus administratif à judiciaire crée parfois une certaine friction au sein de la jurisprudence, notamment au niveau de la déférence à accorder à l’instance spécialisée, ou encore à l’égard de la souplesse des règles de preuve applicables devant cette dernière. Par une étude positiviste du droit, nous analysons tout d’abord la procédure de confection du rôle foncier, en exposant les acteurs et leurs responsabilités, ainsi que les concepts fondamentaux dans l’établissement de la valeur réelle des immeubles. Ensuite, nous retraçons chacune des étapes de la contestation d’une inscription au rôle, en y recensant les diverses règles de compétence, de preuve et de procédure applicables à chaque instance. À l’aide de nombreux exemples jurisprudentiels, nous tentons de mettre en lumière les différentes interprétations que font les tribunaux de la Loi sur la fiscalité municipale et autres législations connexes.
Resumo:
Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.
Resumo:
Cet essai traite des stratégies pédagogiques utilisant des fonctionnalités disponibles dans des environnements numériques d’apprentissage (ENA) en enseignement hybride dans le réseau collégial. Les enseignantes et les enseignants du réseau collégial ont recours aux ENA en tant que médias d’enseignement et d’apprentissage depuis plusieurs années, mais les données montrent des différences importantes dans leur préférence pour les différents outils disponibles. Si la remise des notes est la plus utilisée, d’autres fonctionnalités qui ont pourtant un fort potentiel pédagogique restent peu ou pas exploitées. Parmi les facteurs qui peuvent expliquer cette relative sous-exploitation des ENA, cet essai identifie un manque de ressources pour accompagner les enseignantes et les enseignants dans l’intégration d’un environnement numérique d’apprentissage (ENA) en enseignement hybride au collégial. Pour pallier ce manque, l’essai pose comme question de recherche : « Quelles sont les stratégies d’utilisation des fonctionnalités des environnements numériques d’apprentissage (ENA) à encourager pour l'exploitation optimale de leur potentiel pédagogique en contexte d’enseignement hybride au collégial »? Le but de cet essai est donc de proposer un ensemble de pratiques optimales exploitant de la manière la plus efficace possible les fonctionnalités des ENA en enseignement hybride dans le réseau collégial. Pour y arriver, le premier objectif est de recenser et de classer des pratiques pédagogiques utilisant ces fonctionnalités. Le deuxième objectif de l’essai est d’analyser les pratiques recensées selon un cadre de référence mis au point à partir de trois sources. La première est la métarecherche que Barrette (2011, 2009, 2005) réalise pour le compte de l’Association pour la recherche au collégial; la deuxième est le modèle de la motivation scolaire de Viau (2009) et la troisième est le modèle des « valeurs ajoutées » de l’équipe de Docqs, Lebrun et Smidts (2010). L’analyse des correspondances entre les pratiques recensées et les conditions posées comme des critères d’efficacité par le cadre de référence permet d’atteindre le troisième objectif de cet essai qui est de dégager des stratégies optimales d’utilisation. Axé sur le pôle de la recherche, cet essai procède par études de cas. Son corpus est constitué de 99 récits de pratiques publiés sur le site de Profweb. La sélection de ces récits s’est faite en effectuant des recherches par mots-clés pertinents dans l’ensemble des récits publiés. L’essai réalise l’analyse des récits à partir de 17 fonctionnalités et d’une dix-huitième situation correspondant à l’utilisation combinée de plusieurs fonctionnalités au sein d’un ENA. Une synthèse des pratiques recensées pour chacune des 18 fonctionnalités dégage un schème, c’est-à-dire un ensemble type de pratiques. L’examen des 18 schèmes de pratiques révèle que certains correspondent plus que d’autres aux critères d’efficacité fournis par le cadre de référence. Ainsi, les schèmes de pratiques rapportés par les auteurs de récits dans Profweb indiquent que l’utilisation de plusieurs fonctionnalités combinées au sein d’un ENA, ou l’utilisation des forums ou celle du portfolio satisfont mieux aux critères d’efficacité que l’utilisation du courriel ou que celle de la correction numérique. Les résultats de cet essai indiquent aussi qu’il y a dans les récits une prépondérance de pratiques pédagogiques inspirées du socioconstructivisme et que dans leur ensemble, ces pratiques sont centrées sur l’apprentissage et favorisent la motivation scolaire. Les récits étudiés indiquent aussi un haut niveau de satisfaction à l’égard des équipements informatiques utilisés. En même temps, ces récits font état fréquemment d’un manque d’expérience et d’un besoin de formation de la part des enseignantes et des enseignants. Pour satisfaire le besoin de formation mentionné dans les récits, l’essai propose des pratiques optimales en matière d’utilisation des fonctionnalités d’un ENA en enseignement hybride. Une pratique optimale consiste à identifier pour chacun des schèmes de pratique les critères d’efficacité pertinents dégagés du cadre d’analyse, critères effectivement pris en compte dans les récits ou qui auraient dû l’être. L’examen des récits de pratiques révèle aussi que les critères d’efficacité ne sont pas pris en compte simultanément et qu’il existe une feuille de route, une procédure dont chacune des étapes offre l’occasion de considérer certains critères plutôt que d’autres. L’essai suggère une séquence pour la prise en compte des critères d’efficacité lors de la planification et du déroulement d’une activité pédagogique exploitant des fonctionnalités d’ENA en enseignement hybride. La confection du répertoire des 18 pratiques optimales en matière d’utilisation pédagogique des fonctionnalités d’un ENA constitue un apport nouveau et utile pour répondre au besoin des enseignantes et des enseignants de se former à une utilisation stratégique de ces outils. Un tel répertoire peut constituer le coeur d’un guide de formation et d’intervention que les conseillères et conseillers technopédagogiques du réseau collégial utiliseront avec empressement.
Resumo:
Le premier cours de français obligatoire, Écriture et littérature, amène l'élève à rédiger une analyse littéraire. La méthode de travail intellectuel que l'élève aura maîtrisée doit être réinvestie dans les cours suivants auxquels de nouvelles notions s'ajoutent. Il importe donc que l'élève ait intégré une méthode de travail efficace qu'il pourra réutiliser. Cet essai vient montrer dans quelle mesure l'utilisation de stratégies cognitives et métacognitives peut aider l'élève à développer sa compétence à rédiger des analyses littéraires. La problématique de la recherche concerne l'approche pédagogique offerte habituellement dans ce premier cours de français. Nous avons remarqué que l'enseignante ou l'enseignant s'intéresse principalement à la tâche réalisée, soit la rédaction de l'élève, et non à la démarche de ce dernier. Si l'élève suit une procédure qui comporte des lacunes ou omet certaines étapes essentielles, comment peut-on espérer que ce dernier arrive à produire une analyse littéraire satisfaisante? Parallèlement, si l'enseignante ou l'enseignant souhaite apporter une aide personnalisée à l'élève, il lui faut avoir accès aux processus mentaux de ce dernier. Nous avons aussi remarqué que l'élève n'est guère impliqué dans le processus d'évaluation, qu'il s'agisse de l'évaluation de sa démarche ou de son texte. Ainsi la réflexion sur son savoir-faire ou sur sa compétence en rédaction n'est pas sollicitée. Tel que donné, le cours de littérature n'offre pas une place suffisamment grande au processus d'apprentissage de l'analyse littéraire: l'élève est absent du processus d'évaluation et la réflexion sur sa démarche et ses productions n'est pas valorisée. Dans ce cas, l'enseignante ou l'enseignant ne peut espérer un transfert des apprentissages dans le cours suivant. Ces constats nous ont amenée à souhaiter analyser les effets de l'enseignement de diverses stratégies cognitives et métacognitives sur le développement de la compétence à rédiger des analyses littéraires. Afin de répondre à cet objectif général de la recherche, nous avons bâti notre cadre de référence autour de l'approche cognitiviste. Comme notre expérimentation porte principalement sur l'acquisition de connaissances procédurales, c'est à dire un savoir-faire, nous avons repris les grands principes du traitement de l'information proposés par Tardif (1992). Nous avons aussi tenu compte des catégories de connaissances (Barbeau, Montini, Roy, 1997) qui exigent, pour chacune, des stratégies différentes. Puisque notre expérimentation vise une méthode d'enseignement différente compte tenu que nous avons ajouté des stratégies d'autoévaluation et de régulation à nos stratégies cognitives déjà existantes, nous avons privilégié les écrits d'auteurs qui traitent de la métacognition dans le but de développer une compétence. Alors que l'autoévaluation permet à l'élève d'évaluer sa démarche ou son travail, la régulation, quant à elle, est l'action qui devrait suivre en vue d'apporter des correctifs aux lacunes relevées. Ces deux pratiques indissociables devraient permettre à l'élève de réaliser quelles actions il doit mettre en place pour améliorer ses écrits. Ainsi l'élève prend confiance en lui, devient plus autonome et responsable de sa réussite. C'est dans cette optique que s'est déroulée l'expérimentation à l'hiver 2008. Pendant 15 semaines, 25 élèves regroupés à l'intérieur d'un cours d'aide à la réussite ont expérimenté une approche différente de celle du cours dans lequel ils ont échoué. D'abord, l'élève a pris connaissance de ses points forts et de ses faiblesses à l'analyse littéraire du trimestre précédent. Il a pu s'exprimer sur sa conception des critères d'évaluation et ajuster sa compréhension des attentes par la suite. Après chaque production, l'élève a été appelé à porter un jugement critique sur son texte. Aussi, il a pu parler de sa méthode de travail avec ses pairs et évaluer l'efficacité de sa démarche. La réécriture de certains textes a été exigée. À plusieurs reprises, l'élève a dû se questionner sur l'état de ses apprentissages et faire le bilan de ses connaissances. Le travail par les pairs a aussi été très valorisé. Pour vérifier l'impact de notre expérimentation, nous avons recueilli tous les documents relatifs à l'analyse littéraire finale de mai 2008 afin de décrire les processus mentaux mis en place par les élèves et vérifier si leurs stratégies ont été efficaces. Nous avons aussi fait remplir deux questionnaires afin d'analyser les perceptions des élèves quant aux stratégies cognitives et métacognitives expérimentées. Finalement, lors d'une entrevue, l'enseignante nous a fait part de ses perceptions quant à l'intérêt de la recherche et ses limites. Les résultats que nous avons obtenus nous ont permis de voir quelle démarche chaque élève a suivie à partir des traces qu'il a laissées. Il semble que les étapes préalables à la rédaction, celles que l'on retrouve sur la copie de l'extrait littéraire, sont les stratégies les plus utiles pour recueillir toutes les informations nécessaires à la rédaction. Les élèves qui ont laissé des traces de ces étapes sont ceux qui ont le mieux réussi. Cependant, c'est sur le plan des perceptions qu'apparaît encore plus clairement l'importance de combiner les stratégies métacognitives aux stratégies cognitives déjà en place. Les élèves accordent une grande valeur à l'autoévaluation. Cette pratique semble avoir contribué à augmenter leur confiance alors qu'ils sont aptes à détecter leurs forces et leurs faiblesses. Aussi, plusieurs croient que le réinvestissement de cette stratégie dans les autres cours de français pourra les aider dans leur réussite. De manière générale, l'expérimentation de stratégies métacognitives conjointement aux stratégies cognitives donne de bons résultats. Même si l'expérimentation s'est effectuée sur une courte période, elle a eu un impact positif chez les élèves et l'enseignante. Les élèves avaient le sentiment d'être en contrôle de leur réussite. Bref, les résultats nous encouragent donc à poursuivre l'insertion de stratégies métacognitives à l'intérieur du premier cours de français afin d'aider les élèves à acquérir une méthode de travail qui leur sera utile et efficace.
Resumo:
L’objectif de cet essai est d’analyser les freins et leviers à la mise en place de synergies d’écologie industrielle et territoriale, afin de suggérer comment l’entreprise Électricité de France pourrait contribuer à leur développement. Historiquement, les échanges de flux interentreprises se faisaient déjà de manière autonome, pour des raisons économiques et pratiques. Aujourd’hui, avec l’essor de l’économie circulaire, de plus en plus d’acteurs soutiennent la mise en place de projets organisés par un tiers acteur. L’aspiration de ces démarches est de rassembler des acteurs économiques et territoriaux, dans le but d’identifier des pistes de collaborations et de trouver des solutions locales pour valoriser les flux de matière et d’énergie au sein d’un territoire. La mise en place de ces projets, permettant l’optimisation des systèmes productifs et la réalisation de gains économiques, environnementaux et sociaux, bénéficie d’ailleurs d’un certain soutien institutionnel. Toutefois, il existe encore des freins au développement d’une écologie industrielle et territoriale mature en France. Les échanges de flux créent notamment des liens d’interdépendance entre les acteurs. Dans ce contexte, comment les acteurs peuvent-ils s’organiser pour développer de nouvelles synergies ? Différents leviers peuvent être mobilisés dans le cadre de projets d’écologie industrielle et territoriale. Les subventions publiques et le financement participatif sont des appuis financiers avantageux. Une évolution de la réglementation concernant les entreprises habilitées à traiter des déchets, ainsi que le recours à la procédure de sortie de statut de déchet pourraient faciliter la mise en place de synergies. De plus, faire réaliser des études techniques par des acteurs spécialisés et construire de nouvelles structures adaptées permettraient de répondre aux besoins de valorisation grandissants. Aussi, une contractualisation appropriée des échanges permet de mieux gérer les liens d’interdépendance et de formaliser les ententes issues d’échanges transparents entre les acteurs. Enfin, la sensibilisation et l’instauration d’une dynamique collaborative auprès des parties prenantes, ainsi que des échanges réguliers entre les acteurs, favorisent leur implication et leur motivation. L’aboutissement des démarches organisées par un tiers acteur, aujourd’hui fortement incitées par les collectivités locales, ambitionne d’instaurer une dynamique collaborative entre les acteurs publics et privés des territoires, afin de provoquer l’organisation de synergies autonomes sur le long terme. L’évolution du contexte institutionnel semble être favorable au développement futur de nouvelles synergies. Toutefois, cet avancement doit aussi être accompagné par des solutions d’écoconception et d’économie de la fonctionnalité, tel que planifié dans la stratégie nationale de l’économie circulaire. Finalement, un enjeu humain majeur à aborder consiste à la sensibilisation du public et des industriels afin de susciter leur engagement. L’entreprise Électricité de France, disposant de ressources substantielles, pourrait fortement contribuer à cet accomplissement, en développant des offres innovantes et en trouvant des pistes de collaboration avec ses clients. Le renforcement de son image de marque lui permettrait de légitimer sa position d’acteur central dans la transition énergétique, de participer au développement industriel et territorial durable et de gagner en compétitivité, tout en méritant la confiance du public.