335 resultados para Norme


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite de l’impact de l’économie congolaise sur la pastorale du diocèse d’Idiofa, de la gestion de ce diocèse et de leurs répercussions sur le ministère des prêtres. Après plusieurs années de son érection, le diocèse d’Idiofa subit présentement les conséquences de la crise économique congolaise. Sa pastorale est malade, en panne et même bloquée. Partout, il n’y pas d’argent, les caisses sont vides, on ne peut ni manger ni célébrer l’Eucharistie. On assiste à la démotivation presque généralisée des prêtres : refus des obédiences ou contestation des affectations, séjours prolongés et études à l’étranger, absence, ignorance ou mystère des finances. Les gens et les prêtres sont de plus en plus pauvres. Cela contraste avec la croissance numérique des prêtres dans le diocèse d’Idiofa. À y regarder de près, cette croissance masque mal une énigme. Avec la pauvreté grandissante, on aurait dû s’attendre à une diminution du nombre des prêtres. Or, tel n’est pas le cas. On assiste à un phénomène inverse dans le diocèse d’Idiofa. À quoi est dû cet état de chose? Promotion sociale, recherche du bien être matériel? Hausse des vocations? Le problème paraît banal, mais c’est une question pratique qui nous conduit à une prise de conscience de notre agir et de notre identité ecclésiaux. Cette thèse aidera à saisir les enjeux en cause et leurs conséquences sur le ministère des prêtres et sur la population. Elle nous éclairera sur l’incapacité de notre Église locale à s’assumer et à réagir de façon réaliste dans notre contexte propre. L’écart est énorme entre sa théorie et sa pratique. Cette thèse vise une Église locale nouvelle qui se veut active, pratique et qui n’a pas le droit de méconnaître les problèmes des prêtres et des gens en situation difficile. S’il est vrai que le modèle ecclésial actuel est élaboré en fonction des défis et des aspirations des communautés diocésaines, comment expliquer que la même Église puisse reléguer aux oubliettes les problèmes économiques qui conditionnent la vie réelle des prêtres et des gens? La communauté diocésaine peut-elle se bâtir en négligeant l’aspect économique? Malgré la vitalité actuelle de l’Église du diocèse en termes numériques, liturgiques et sacramentaires, de graves insuffisances témoignent de sa paralysie actuelle et rendent l’avenir incertain : misère croissante des masses, mauvaise gestion, dépendance accrue, etc. Cette thèse veut que notre Église locale se sente interpellée dans son agir pastoral par ce problème économique. Une nouvelle orientation ou organisation pastorale s’avère donc nécessaire pour la subsistance et la croissance de notre Église et de son milieu. Notre thèse comprend sept chapitres. Le premier dresse un portrait économique de la République Démocratique du Congo avec ses immenses richesses et la crise qu’elle traverse tant au plan politique que économique. Le deuxième analyse l’écart entre les prises de position audacieuses de l’Église congolaise dans ce contexte et sa pratique cléricale et institutionnelle plus conservatrice. Le troisième décrit la situation pastorale du diocèse d’Idiofa, du ministère de brousse jusqu’à la gestion diocésaine en passant par ses diverses pastorales sectorielles. On y trouve l’exposé des faiblesses et des forces de ce diocèse. Le quatrième analyse la situation économique du diocèse tant en rapport avec la crise congolaise qu’avec les dynamiques internes du diocèse. On y voit émerger par exemple, la dépendance envers Rome, le favoritisme et le tribalisme financiers, la perte de moyens de production propres au diocèse, la pauvreté du clergé et, évidemment, des fidèles et des gens du diocèse. Le cinquième chapitre réévalue les progrès théologiques (adaptation, pierres d’attente, inculturation, reconstruction, libération et contextuelle) et des pratiques pastorales du diocèse en regard de sa réalité actuelle. Le sixième propose une interprétation théologique de la crise économique du diocèse d’Idiofa en fonction de l’Évangile, du salut considéré comme salut global concernant la transformation des structures historiques, de la mission de l’Église d’annoncer ce salut en paroles et en actes. Le septième et dernier chapitre propose une analyse des implications éthiques et ecclésiales. Il présente aussi quelques voies pastorales susceptibles de favoriser la prise en mains des communautés par elles-mêmes et l’assainissement des finances du diocèse : pastorales du grenier, des mains sales et du jardin partagé. La conclusion générale de la thèse rappelle les idées-forces et propose des pistes de solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque jour, nos comportements sont influencés par les normes sociales qui nous entourent. En agissant selon les normes sociales, l’individu agit en conformité avec les comportements les plus consensuels et ainsi reçoit de l’approbation de son groupe. Malgré le fait que les normes sociales sont au coeur de nombreuses recherches, les processus cognitifs qui mènent un individu à agir selon elles sont encore inconnus. Les processus cognitifs expliquant le comportement sont, par ailleurs, expliqués dans la littérature sur les comportements motivés par l’atteinte de buts qui stipule que les stratégies cognitives seraient nécessaires afin d’émettre un comportement. Dans ce travail, nous proposons que les stratégies soient les processus cognitifs qui mènent un individu à agir selon une norme sociale. Deux études ont été menées et les résultats de ces deux études démontrent que les individus agissent selon une norme sociale parce qu’ils peuvent générer les stratégies nécessaires pour y arriver. Les implications théoriques et méthodologiques sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude vise à évaluer l'exposition professionnelle au bruit des travailleurs d'une plateforme gazière en Algérie et à mettre en évidence des déterminants influençant cette exposition. Des groupes d'exposition homogène (GEH) ont été constitués sur la base de ressemblances quant à l'exposition au bruit, aux titres d'emploi et aux lieux de travail. Deux stratégies d'échantillonnage ont été suivies, la première selon la norme internationale ISO 9612 : 2009 et la seconde selon la stratégie aléatoire de l'AIHA. Pour les deux approches, les niveaux de bruit (Lex, 8h, niveaux d'exposition au bruit pondéré (A) ajustés à une journée de travail de 8 heures) des opérateurs et des superviseurs étaient généralement > 85 dB(A) alors que pour les techniciens-tableau, les niveaux de bruit (Lex, 8h) étaient en tout temps < 85 dB(A). Pour les trois GEH du titre d'emploi des maintenanciers, il y a eu régulièrement des dépassements de la valeur de référence. Plusieurs travailleurs oeuvrant sur les plateformes gazières sont exposés à des niveaux importants de bruit et sont à risque de développer des problèmes auditifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

réalisé en cotutelle à l'Université de Franche-Comté (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avènement, en microéconomie de la santé, de la théorie de l’agence et de son corollaire en terme de régulation qu’est l’incitation, ont exclu la question du statut théorique de l’éthique médicale en la rendant dénuée d’intérêt pratique. En effet, que l’éthique soit utilitaire, (conditionnelle à la maximisation d’utilité), ou anti utilitaire (norme inconditionnelle), l’incitation est la seule politique publique pertinente. Cependant, selon nous, l’émergence d’une importante littérature en économie sur le « crowding out effect » vient redonner une place capitale au statut de l’éthique. Si les motivations sont substituables alors, l’incitation peut être contreproductive. La faible compatibilité entre théorie des motivations et théorie de l’agence renforce alors la pertinence de l’hypothèse d’éthique antiutilitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles, comme les sites Internet des télédiffuseurs ou des webdiffuseurs, la vidéo sur demande, la télévision mobile ou la webdistribution, modifie les risques que les producteurs audiovisuels doivent gérer normalement sur les plateformes traditionnelles, comme la télévision. La mutation des risques découle de quatre sources en particulier, soit du marché, des pratiques d’affaires, des lois et règlements et des techniques elles-mêmes. Ces sources peuvent également induire des normes pouvant constituer un cadre juridique afin de moduler ou éliminer les risques. Le présent mémoire analyse les risques encourus lors de la diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles du point de vue des producteurs par l’entremise du processus de gestion de risques. Il identifie et recense ainsi les risques en mutation et les nouveaux risques auxquels les producteurs sont confrontés. Puis, les risques identifiés y sont définis et le cadre juridique est abordé dans le contexte de la mise en œuvre d’une stratégie de gestion de risques et des mesures afin d’atténuer ou d’éviter les risques encourus par les activités de production et d’exploitation des producteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse montre comment s’est constituée la figure du génie en France au cours des XVIe, XVIIe et XVIIIe siècles, en mettant en évidence les paradoxes qui lui ont permis de devenir l’une des notions fondamentales de la modernité. Cette analyse s’articule autour de trois axes principaux. D’abord, il s’agit d’interroger les circonstances de l’invention du terme « génie » dans la langue française, en insistant sur son bagage culturel gréco-latin. La notion de génie apparaît alors comme intimement liée au génie de la langue française et à son histoire. Ensuite, l’analyse s’intéresse au rôle que la notion de génie joue dans le cadre régulateur de la théorie poétique à la fin du XVIIe siècle. Le génie, qui se définit alors comme une aptitude naturelle à l’exercice d’une régularité normée du faire, n’a cependant de valeur que si cette régularité est transgressée, dépassée. Cette relation fait apparaître le paradoxe social que représente le génie, considéré à la fois comme exceptionnel et exemplaire. Ce paradoxe du génie est ensuite analysé dans le cadre du développement des théories esthétiques au XVIIIe siècle, fondées sur une expérience communautarisante du beau. Cette problématique est étudiée au regard de l’intérêt des philosophes sensualistes pour le problème que constitue le génie, en particulier quant aux mécanismes de l’invention et de la découverte. À l’issue de ce parcours, il apparaît que le génie est à la fois problématique pour les théories qui tentent de le circonscrire et unificateur pour la communauté qu’il permet d’illustrer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université catholique de Louvain

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le langage cinématographique (ou mode de représentation) adopté par Mizoguchi en contraste avec le style classique hollywoodien. Notre hypothèse est que le refus de Mizoguchi de recourir au découpage classique et au gros-plan procurerait au spectateur une expérience de perception qui tendrait à se rapprocher de celle vécue par un spectateur de théâtre ou le témoin d’une action se déroulant dans notre monde physique. Mizoguchi a débuté son métier au début des années 1920. Le cinéma japonais venait tout juste de prendre la voie d’un art nouveau en quittant son statut de simple captation de spectacles théâtraux. L’industrie cinématographique japonaise était alors en incubation marquée par diverses influences occidentales. Nous nous pencherons plus particulièrement sur les questions stylistiques à partir du moment où le cinéma japonais s’engageait dans le parlant en imitant le style classique hollywoodien. Ce cinéma dominant devenait une norme que Mizoguchi décida de ne pas suivre pour préférer un style caractérisé par des plans-séquences. Ce style plus « neutre » et «objectif » allait être encensé par Bazin après la guerre au moment où ce dernier découvrit notamment Welles et Wyler. À partir de plusieurs extraits filmiques, nous analysons le plan-séquence mizoguchien comme substitution à une série de plans rapprochés qui se serait imposé normalement avec le style classique hollywoodien. Et ce, afin de discuter des enjeux de réalisme et de théâtralité soulevés par Bazin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche vise à décrire les pratiques d’enseignement de la littératie au premier cycle du primaire en contexte montréalais d’enseignants considérés experts. Plus précisément, les trois objectifs de recherche consistent à décrire les pratiques d’enseignement de la langue écrite au premier cycle du primaire en contexte montréalais privilégiées par certains enseignants considérés experts (N=6) (objectif 1); à décrire les différentes formes de différenciation pédagogique privilégiées pour l’enseignement de la lecture et de l’écriture en contexte montréalais de certains enseignants considérés experts afin de répondre aux besoins variés de tous leurs élèves (objectif 2) et à étudier les liens possibles entre les pratiques d’enseignement de la langue écrite d’enseignants considérés experts et la progression de leurs élèves (N=100) du premier cycle du primaire en contexte montréalais, au regard de leur connaissance des correspondances phonographiques et de la norme orthographique (objectif 3). Afin de répondre aux objectifs, deux entretiens ont été menés auprès des enseignantes, de même que deux observations en classe, une à l’automne et une au printemps. Pour leur part, les élèves ont été soumis à deux tâches d’écriture à deux reprises durant l’année (une tâche de production de mots et une tâche de production de texte) permettant de mesurer leur progression en cours d’année relativement à leurs connaissances des correspondances phonographiques et de la norme orthographique. Nos résultats nous ont permis de recueillir des pratiques très diversifiées et conduites avec une fréquence fort différente d’une enseignante à l’autre. La densité des contenus abordés en classe diffère également beaucoup entre les enseignantes. En lien avec le modèle du multi-agenda de Bucheton et Soulé (2009), les cinq composantes constituant la matrice de l’activité de l’enseignant se retrouvent dans toutes les classes, mais ces préoccupations n’occupent pas toutes la même place dans les pratiques des enseignantes de la recherche. Nos résultats indiquent aussi que toutes les enseignantes différencient leur enseignement, mais de façon variable. Il semble que ce soit la différenciation des processus, des contenus et des structures qui soit la plus aisée à mettre en place en classe. En lien avec notre adaptation du modèle de différenciation pédagogique de Caron (2008), il semble que ce soit la diversification et l’offre de choix qui sont mobilisées le plus fréquemment. Les mesures d’adaptation sont rarement mises en avant dans les pratiques de classe, tandis que les mesures d’individualisation n’ont pas été constatées. En ce qui a trait aux résultats des élèves aux tâches en écriture, nos résultats indiquent que deux groupes se démarquent parmi les six. En effet, c’est dans ces deux classes que la plus forte progression est constatée. Les pratiques des enseignantes de ces deux classes sont très diversifiées et elles sont les seules à mettre en avant dans leurs pratiques tous les dispositifs dont il est question en entretiens. De plus, les contenus enseignés sont denses, ce qui est réputé pour caractériser les pratiques des enseignants efficaces (Hall, 2003). De même, ces deux enseignantes offrent un étayage de grande qualité à leurs élèves et maîtrisent parfaitement le pilotage des tâches. La présente recherche peut servir à apporter un éclairage nouveau sur les pratiques de littératie des enseignants considérés experts afin de mieux comprendre leurs pratiques, de même que la place qu’ils accordent à la différenciation pédagogique.