992 resultados para Analyse spectrale
Resumo:
Les graphiques ont été réalisés avec le logiciel Alceste.
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
La santé des enfants demeure une question prioritaire en Afrique sub-saharienne. Les disparités en matière de mortalité entre pays et au sein des pays persistent et se sont fortement accrues durant la dernière décennie. En dépit de solides arguments théoriques voulant que les variables contextuelles soient des déterminants importants de la santé des enfants, ces facteurs, et particulièrement les influences du contexte local, ont été étudiées beaucoup moins souvent que les caractéristiques individuelles. L'objectif principal de la présente thèse est d’identifier les déterminants individuels et contextuels associés à la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. L’analyse systématique est basée sur les données les plus récentes des enquêtes démographiques et de santé (DHS/EDS). Deux questions spécifiques sont examinées dans cette thèse. La première évalue la mesure dans la quelle le contexte local affecte la mortalité infanto-juvénile, net des caractéristiques individuelles. La seconde question est consacrée à l’examen de l’effet du faible poids à la naissance sur le risque de décès avant 5 ans. Par rapport à la première question, les analyses multi-niveaux confirment pour plusieurs pays étudiés l’importance simultanée de l’environnement familial et du contexte local de résidence dans l’explication des différences de mortalité infanto-juvénile. Toutefois, par comparaison au contexte familial, l’ampleur de l’effet de l’environnement local paraît assez modeste. Il apparaît donc que le contexte familial reste un puissant déterminant de la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. Les résultats indiquent en outre que certains attributs du contexte local de résidence influencent le risque de décès des enfants avant 5 ans, au-delà des facteurs individuels dans plusieurs pays. Cette thèse confirme l’effet contextuel de l’éducation sur la mortalité des enfants. Cet effet s’ajoute, dans certains pays, à l'effet positif du niveau individuel d’éducation de la mère sur la survie de l'enfant. Les résultats montrent aussi que le degré d’homogénéité ethnique de la localité influence fortement la probabilité de mourir avant 5 ans dans certains pays. Globalement, les résultats de cette thèse suggèrent que le défi de réduire la mortalité des enfants va au-delà des stratégies visant uniquement les facteurs individuels, et nécessite une meilleure compréhension de l’influence des facteurs contextuels. Par rapport à la deuxième question, les résultats montrent également que les facteurs individuels restent aussi très importants dans l’explication des différences de mortalité des enfants dans plusieurs pays étudiés. Nos résultats indiquent que les différences de mortalité selon le poids à la naissance sont significatives dans tous les pays inclus dans l’analyse. Les enfants nés avec un faible poids (moins de 2500 grammes) courent presque 2 à 4 fois plus de risques de mourir au cours des cinq premières années de vie que les enfants de poids normal, même après correction pour l’hétérogénéité non observée. Ce résultat suggère qu’en plus des mesures visant à réduire la pauvreté et les inégalités de revenus, la réduction de l’incidence du faible poids à la naissance pourrait apporter une contribution majeure aux Objectifs du Millénaire pour le développement; spécialement comme une stratégie efficace pour réduire le niveau de mortalité parmi les enfants de moins de cinq ans.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Les troubles anxieux figurent parmi les psychopathologies les plus fréquentes chez les enfants. Ils peuvent avoir de graves répercussions sur leur développement et, à long terme, ils tendent à persister ainsi qu’à s’aggraver. L’évitement est un moyen souvent utilisé par les personnes anxieuses, adultes ou enfants, afin de tenter d’échapper à l'objet de leur peur et ainsi faire diminuer leur niveau d’anxiété. Les schémas cognitifs dysfonctionnels reliés à l’anxiété, et à l’origine de l’évitement, se développent tôt chez l’enfant et sont en partie reliés aux interactions parent-enfant. La présente recherche vise à examiner, à l’aide d’une analyse séquentielle des interactions, la dépendance entre les comportements d’anxiété et d’évitement chez les membres de 20 dyades parent-enfant, dont les enfants sont âgés entre 4 et 7 ans. La tâche d’interaction, une histoire à compléter par les membres de la dyade, a la capacité de susciter des émotions anxieuses chez les participants. Les résultats de cette étude ne permettent pas de démontrer une dépendance entre les comportements d’anxiété et d’évitement des parents et ceux des enfants. La discussion présente des éléments de réflexion sur des pistes de recherche à explorer.
Resumo:
Les virus exploitent la machinerie cellulaire de l’hôte de façon très variée et plusieurs types vont même jusqu’à incorporer certaines protéines cellulaires. Nous avons récemment effectué la première analyse protéomique du virion mature de l’Herpès simplex de type 1 (HSV-1), ce qui nous a permis de déterminer que jusqu’à 49 protéines cellulaires différentes se retrouvaient dans ce virus (Loret, S. et al. (2008). "Comprehensive characterization of extracellular herpes simplex virus type 1 virions." J Virol 82(17): 8605-18.). Afin de déterminer leur importance dans le cycle de réplication d’HSV-1, nous avons mis au point un système de criblage nous permettant de quantifier le virus produit et relâché dans le milieu extracellulaire en utilisant un virus marqué à la GFP ainsi que des petits ARN interférents (pARNi) ciblant spécifiquement ces protéines cellulaires. Cette approche nous a permis de démontrer que 17 des protéines identifiées précédemment jouaient un rôle critique dans la réplication d’HSV-1, suggérant ainsi que leur incorporation dans le virus n’est pas aléatoire. Nous avons ensuite examiné le rôle d’une de ces protéines, DDX3X (DEAD (Asp-Glu-Ala-Asp) box polypeptide 3, X-linked), une protéine multifonctionnelle connue pour son implication dans les cycles de réplication de plusieurs virus humains. À l’aide de pARNi ainsi que de différentes lignées cellulaires, dont une lignée DDX3X thermosensible, nous avons démontré que l’inhibition de DDX3X résultait en une diminution du nombre de capsides intracellulaires et induisait une importante diminution de l’expression des gènes viraux. Nous avons aussi démontré que la fraction de DDX3X incorporée dans le virion contribuait activement au cycle infectieux d’HSV-1. Ces résultats confirment l’intérêt de notre approche afin d’étudier les interactions hôte-pathogène en plus de démontrer la contribution des protéines cellulaires incorporées à HSV-1 dans l’infection virale.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Ce mémoire s’intéresse au changement de la notion d’asile à travers l’incorporation du concept de genre et son impact sur les processus de demande d’asile et l’octroi du statut de réfugié pour les personnes victimes de violences liées au genre au Canada. À partir d’une perspective diachronique sur les transmutations de l’asile et des transformations sociales et culturelles de ce phénomène social, nous enregistrons des tensions et des contradictions qui émanent de son application et des discours qui lui sont reliés. L’observation des dynamiques contradictoires qui s’enchevêtrent dans ce champ indique une tension dialectique entre les droits humains et la citoyenneté, une symbiose dans le développement des droits de la femme et les lois sur les réfugiés et des contradictions comme celles entre le relativisme et l’essentialisme. L’examen du processus de demande d’asile pour les femmes en particulier victimes de violences liées au genre à travers l’analyse des transformations sociales et culturelles signale le caractère éminemment politique de ce phénomène qui situe l’asile au carrefour du procès d’émancipation du sujet politique.
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
À cause de son langage symbolique et de l’absence d’une trame narrative bien dessinée, l’Apocalypse de Jean constitue un gros défi pour l’exégèse, d’autant plus que ce livre réutilise un important matériel vétérotestamentaire mais sans jamais faire de citations explicites. La présente recherche se propose de traiter le chapitre 19 comme une unité littéraire significative à l’intérieur de ce livre complexe, même s’il ne montre ni un récit suivi ni une parfaite cohérence sur le plan narratif, présentant même des discordances avec d’autres parties du livre. Par contre, sur le plan théologique, un discours cohérent et significatif s’en dégage lorsqu’on joint à l’analyse narrative une analyse structurelle. La combinaison de ces deux méthodes synchroniques permet d’exposer des parallélismes frappants et de décrire une intrigue qui traite de l’accomplissement inéluctable de la justice divine, symbolisée par le contraste entre deux grands banquets, l’un festif et l’autre macabre. Enfin, cette recherche préserve le caractère évocateur des symboles et préconise une lecture ironique pour certains passages.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.