984 resultados para Technologies de l’information et de communication
Resumo:
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
Dans le contexte urbain du Burkina Faso, la chanson de sensibilisation se situe au coeur des pratiques sociales traditionnelles, des nouvelles économies culturelles et des approches participatives en matière de développement. Cette pratique répond à des enjeux particuliers au contexte local et aux relations internationales. La musique comme outil commun de communication sociale artistique rejoint des stratégies professionnelles différentes chez les artistes-musiciens et les associations locales. Pour les premiers, nous pouvons porter un regard sur la place du musicien dans la société contemporaine burkinabè, entre paupérisation et mondialisation. Pour les seconds, la chanson de sensibilisation s’inscrit comme une tentative d’innover dans les approches d’Information, Éducation et Communication (IEC) pour la santé et la Communication pour le Changement de Comportement (CCC). Ce mémoire présente les modes de collaboration entre les artistes-musiciens et les associations locales qui oeuvrent en santé au Burkina Faso. Il décrit l’état respectif de leur champ puis analyse les négociations sociales issues de leur rencontre. La problématique de recherche s’inscrit dans des courants de recherche en anthropologie et établit un pont avec la praxis de l’animation sociale et culturelle. La chaîne de création (production-diffusion-consommation) permet de poser un regard historique sur les concepts de culture et de développement dans le contexte particulier de l’Afrique de l’Ouest francophone.
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Des recherches antérieures sur les émotions en contexte organisationnel, notamment autour des notions de travail émotionnel, de contrat psychologique et d'équité, ont souvent soulevé la question de la rationalité et du caractère approprié ou non des manifestations émotionnelles, ainsi que sur les mécanismes utilisés pour contrôler et modérer celles-ci. Cependant, peu de recherche empirique a été effectuée sur la façon dont les employés eux-mêmes font sens de leurs émotions au travail et le processus par lequel ils parviennent à rendre celle-ci compréhensibles et légitimes, à la fois pour eux-mêmes et pour autrui. Au cours des dernières années, un courant de recherche émergent tend toutefois à mettre de côté la perspective normative / rationaliste pour soulever ce type de questions. Ainsi, au lieu d'être considérées comme des expériences strictement subjectives, privées, voire inaccessibles, les émotions y sont envisagées à travers les discours et les mises en récits dont elles font l’objet. Les émotions apparaissent ainsi non seulement exprimées dans le langage et la communication, mais construites et négociées à travers eux. La recherche présente développe empiriquement cette perspective émergente, notamment en faisant appel aux théories du sensemaking et de la narration, à travers l’analyse détaillée des récits de quatre employés chargés du soutien à la vente pour un revendeur de produits informatiques. En demandant à mes sujets de parler de leurs expériences émotionnelles et en analysant leurs réponses selon une méthodologie d’analyse narrative, cette recherche explore ainsi la façon dont les employés parviennent à construire le sens et la légitimité de leurs expériences émotionnelles. Les résultats suggèrent entre autres que ces processus de construction de sens sont très étroitement liés aux enjeux d’identité et de rôle.
Resumo:
Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.
Resumo:
Article
Resumo:
Partout dans le monde, des tribunaux empruntent l’autoroute de l’information et choisissent le dépôt électronique comme moyen de faire évoluer les systèmes judiciaires. Certains tribunaux canadiens ont rallié le mouvement, mais la plupart se contentent pour l’instant d’observer, risquant de se voir claquer au nez la porte du cybermonde. Les obstacles invoqués sont divers et vont du manque d’argent et de ressources techniques à l’absence d’une masse critique de dépôts justifiant l’investissement initial nécessaire pour faire entrer le tribunal au XXIe siècle. La Cour fédérale, la Cour suprême et quelques partenaires du secteur privé étudient un modèle de nature à éliminer certains de ces obstacles, qui permettrait de numériser l’information qui circule entre les parties à un litige, leurs avocats et les tribunaux, grâce à la technologie sécurisée de l’Internet, fondée sur le Web. Le présent rapport expose la perspective des praticiens et énonce les avantages, les difficultés et les risques associés au modèle.
Resumo:
Ce texte traite de l’évolution des modes alternatifs de résolution de conflit (MARC) en ligne. L’auteur dresse un historique des différents projets de médiation en ligne en passant par ses « débuts » en 1999 lorsque l’Online Ombuds Office (OOO) fut approché pour l’élaboration d’un système de médiation pour les clients d’eBay, par SquareTrade.com, par les règles de l’ICANN, par Cybersettle et Clicknsettle, etc. Il expose ensuite le courrant que prendra la cybermédiation et le cyberarbitrage dans les années à venir. Ainsi, le médium informatique devient lentement une « quatrième partie » aux discussions et peut venir en aide aux arbitres et aux médiateurs dans la gestion et la communication d’informations. De plus les fonctions d’affichages propres aux ordinateurs, c’est-à-dire la possibilité d’incorporer images, graphiques, plans, etc., devront être mis à l’œuvre par les systèmes de MARC en ligne si ceux-ci sont destinés à prendre de l’expansion dans d’autres domaines que ceux leur étant présentement réservés.
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
En Grande-Bretagne et en Amérique du Nord, la police est une institution publique qui suscite de nombreux travaux académiques. En France, elle est perçue comme un objet sale jusqu’aux travaux de Montjardet. En Suisse, la police est le reflet de la structure fédérale du pays. A travers un cadre réglementaire et légal, chaque canton a organisé sa police. Ainsi, le canton de Vaud s’est doté d’une police cantonale et de polices municipales dont le fonctionnement se fonde sur la proximité. Seules la police cantonale et celle de Lausanne disposent d’une compétence maximale. Bien que la police de proximité soit bien documentée au niveau légal, il n’existe pas de recherche compréhensive sur le fonctionnement de cet ensemble de principes policiers. Ce manque de connaissance pratique est problématique car le canton a entrepris une réforme policière qui est entrée en vigueur au 1er Janvier 2012. Dans ses pratiques liées à l’information, la police de proximité semble s’inspirer de deux modèles incompatibles que sont la police de communauté et l’intelligence led policing. C’est pourquoi, dans cette recherche, nous souhaitons comprendre comment les modèles théoriques trouvent à s’appliquer dans la pratique de la police de proximité. Nous avons opté pour une démarche qualitative semi-dirigée en réalisant 23 entretiens avec des policiers vaudois. L’analyse thématique a été réalisée à l’aide du logiciel Atlas Ti. Trois résultats ont retenu notre attention. Tout d’abord, notre analyse a permis de clarifier la notion de proximité par rapport à celle de communauté tout en tenant compte des particularismes locaux de redevabilité. Ensuite, nous avons identifié les divers circuits de l’information et mis en évidence les divergences dans le vocabulaire lié à l’analyse criminelle. Enfin, il apparaît que la police vaudoise se positionne comme une interface qui coordonne les partenaires susceptibles de résoudre les problèmes de la population.
Resumo:
Cette thèse enquête sur l’émergence d’espaces de soin à l’ère de la mondialisation numérique. Elle s’articule autour d’incursions au sein du Pan-African e Network Project (PAN), un réseau de cybersanté par l’entremise duquel des hôpitaux tertiaires situés en Inde offrent des services de téléconsultations et de formation médicale à des centres de santé africains. Des incursions sur la piste d’un projet en constante mutation, pour en saisir la polyvalence ontologique, la pertinence politique, la valeur thérapeutique. Le PAN, c’est une entreprise colossale, aux ramifications multiples. C’est le travail quotidien d’ingénieurs, médecins, gestionnaires. Ce sont des routines techniques, des équipements. À la fois emblème d’une résurgence de la coopération indo-africaine et expression d’une étonnante histoire cybermédicale indienne, le réseau incarne une Inde néolibérale, portée par l’ambition technique et commerciale de propulser la nation au centre de la marche du monde. Le PAN, c’est une ouverture numérique de la clinique, qui reconfigure la spatialité de la prise en charge de patients. C’est un réseau clé en main, une quête insatiable de maîtrise, une infrastructure largement sous-utilisée. C’est le projet d’une humanité à prendre en charge : une humanité prospère, en santé, connectée. De part en part, l’expérience du PAN problématise le telos cybermédical. Au romantisme d’une circulation fluide et désincarnée de l’information et de l’expertise, elle oppose la concrétude, la plasticité et la pure matérialité de pratiques situées. Qu’on parle de « dispositifs » (Foucault), de « réseaux » (Latour), ou de « sphères » (Sloterdijk), la prise en charge du vivant ne s’effectue pas sur des surfaces neutres et homogènes, mais relève plutôt de forces locales et immanentes. Le PAN pose la nécessité de penser la technique et le soin ensemble, et d’ainsi déprendre la question du devenir de la clinique autant du triomphalisme moderne de l’émancipation que du recueillement phénoménologique devant une expérience authentique du monde. Il s’agit, en somme, de réfléchir sur les pratiques, événements et formes de pouvoir qui composent ces « espaces intérieurs » que sont les réseaux cybermédicaux, dans tout leur vacarme, leur splendeur et leur insuffisance.
Resumo:
Le changement de paradigme amené par l'approche par compétences dans le système éducatif québécois au début des années 2000 devait conduire les enseignants à adopter de nouvelles façons de faire prescrites par la Politique en évaluation des apprentissages (MEQ, 2003) qui s’inscrivent dans une évaluation au service de l’apprentissage. Brookhart (2004) pour sa part, considère que la recherche en ce qui concerne les apprentissages et l'évaluation au primaire sont limitées et Boutin (2007) se questionne sur le changement effectif des pratiques considérant les vives critiques suscitées quant à l'implantation de l'approche par compétences dans les écoles québécoises. Cette recherche vise à apporter un éclairage quant aux façons de faire d'enseignants de la 6e année du primaire à toutes les étapes de la démarche d'évaluation en lecture, écriture et mathématique en les situant dans des perspectives nouvelles ou traditionnelles de l'évaluation et en observant si la fréquence des énoncés reliés aux façons de faire diffère selon les caractéristiques personnelles des enseignants. Suivant une méthodologie de type simultanée imbriquée, 55 enseignants ont rempli un questionnaire et 14 d'entre eux ont participé à des entrevues semi-dirigées. L’analyse des données montre que tout au long de la démarche d'évaluation, les façons de faire des enseignants varient, et ce, dans les trois matières: ils utilisent des façons de faire qui sont situées tantôt dans un continuum allant des perspectives traditionnelles aux perspectives nouvelles de l'évaluation comme dans la planification, la collecte de données, l'interprétation et la communication et tantôt dans les nouvelles perspectives de l'évaluation comme dans l'étape du jugement, et ce, selon leurs caractéristiques sociodémographiques. Nous avons ainsi pu catégoriser les enseignants selon le modèle de Schwartz, Bransford et Sears (2005) en distinguant ceux qui sont efficients de ceux qui ne le sont pas, même s'ils innovent. Afin d’améliorer les pratiques des enseignants à chaque étape de la démarche d’évaluation, nous pensons qu'il serait intéressant de valider un tableau synthèse inspiré de Scallon (2004) et l'OCDE (2005) afin de créer une métagrille pour analyser la pertinence et la cohérence des façons de faire des enseignants en cours de cycle dans une optique d’évaluation intégrée à l’apprentissage.