175 resultados para Moyennes chaines
Resumo:
La spondylolyse et le spondylolisthésis sont une déformité bien connue dans le domaine de l’orthopédie. Par contre, il persiste des confusions et des débats sur différents aspects de cette pathologie incluant l’étiologie, l’histoire naturelle et le traitement. Récemment, deux études ont démontré l’influence significative de la morphologie du sacrum dans le spondylolisthésis par Inoue et al. et Whitesides et al.4,5 Ces trouvailles ont renouvelé l’intérêt dans l’évaluation radiologique de la balance sagittale de cette condition. L’objectif principal de ce travail est d’évaluer l’influence de la forme et l’orientation du sacrum chez les patients atteints de spondylolisthésis. Pour ce faire, nous avons construit une base de données de patients présentant un spondylolisthésis et d’un groupe contrôle. Par la suite les radiographies de ces sujets ont été analysées par un programme d’ordinateur afin de calculer tous les paramètres pertinents. Ce travail nous a tout d’abord permis de déterminer à partir des radiographies de 120 volontaires pédiatriques et plus de 130 patients pédiatriques atteints de la spondylolisthésis, les valeurs moyennes et la variation des paramètres angulaires qui influencent l’équilibre sagittal du rachis. Cette base de données est la première existante dans la population pédiatrique. Ces données seront d’une grande utilité pour le futur lors d’études concernant diverses conditions spinales. Nous avons remarqué une différence significative de la morphologie sacrée chez les sujets présentant le spondylolisthésis. Par ailleurs, l’étude de corrélation nous a également permis d’établir une forte relation entre le sacrum, le bassin et la colonne dans le profil sagittal. Finalement, ce travail a permis une meilleure compréhension globale de la posture sagittale chez les sujets normaux et chez les sujets atteints du spondylolisthésis qui pourra servir pour mieux analyser cette condition et pour ajuster les traitements selon l’analyse.
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.
Resumo:
Cette recherche vise à examiner les relations entre la perception que des membres du personnel enseignant ont des pratiques du leadership transformationnel de la direction d’école, du contexte scolaire et des conditions favorisant leur engagement à implanter le renouveau pédagogique dans leur école. Le schéma conceptuel et le questionnaire qui sous-tendent cette recherche sont une adaptation de ceux élaborés par Yu, Leithwood et Jantzi (2002). Le questionnaire a été complété par 31 membres du personnel enseignant de quatre écoles primaires montréalaises appartenant à des commissions scolaires anglophones et francophones. À partir de ces données, nous avons calculé des moyennes et nous avons comparé les écoles, à l’aide des tests Mann-Whitney, selon leur niveau d’implantation du renouveau pédagogique, leur niveau socioéconomique et la langue de la commission scolaire d’appartenance. De plus, pour compléter nos données quantitatives, nous avons repris quelques citations des entrevues faites auprès des directions de ces écoles que les professeurs du département d’Administration et fondements de l’éducation de l’Université de Montréal, qui font partie du Groupe de recherche sur l’éducation en milieux défavorisés (GRÉMD), ont effectuées dans le cadre d’une autre étude. Les comparaisons des écoles selon leur niveau d’implantation du renouveau pédagogique révèlent que le personnel enseignant des deux écoles en changement se distingue de celui des deux écoles peu engagées dans le changement sur un seul point majeur : il a évalué moins positivement le contexte scolaire, un résultat appuyé par les analyses non paramétriques. Il semble que, dans les écoles qui ont participé à notre étude, le fait de soutenir l’implantation du renouveau pédagogique serait associé à une évaluation plus faible du contexte scolaire ; la culture de l’école et l’environnement étant les conditions les plus touchées. Un autre résultat de cette recherche est le fait que les enseignantes de l’école favorisée ont évalué le contexte scolaire, notamment la culture, l’environnement et les stratégies pour le changement, moins positivement que les enseignantes des écoles défavorisées. Enfin, les comparaisons des écoles en fonction de la langue de la commission scolaire indiquent qu’il n’existe pas de différence significative dans les évaluations faites des trois variables, que les enseignantes travaillent dans une école appartenant à une commission scolaire anglophone ou francophone. Étant donné que l’échantillon d’enseignantes qui a participé à notre étude est modeste, les résultats de cette recherche ne peuvent pas être généralisés, cependant ils pourraient constituer une base pour des recherches ultérieures dans ce domaine.
Resumo:
Objectifs: Le Nystatin est un antibiotique efficace pour le traitement d’otomycose. Bien que sa sécurité au niveau de l’oreille externe soit bien établie, son utilisation n’est pas recommandée lorsqu’il y a une perforation tympanique. L’objectif de cette étude est d’évaluer le potentiel ototoxique du Nystatin lorsque celui-ci est appliqué directement au niveau de l’oreille moyenne. Méthodes: Nous avons fait une étude expérimentale avec 18 cochons d’Indes de souche Hartley que nous avons divisés en deux groupes. En exposant l’oreille moyenne de chaque animal au Nystatin (groupe I) ou à la néomycine (groupe II) et chaque oreille controlatérale à une solution physiologique (NaCl), la fonction auditive a été évaluée avec un test de potentiels évoqués auditif du tronc cérébral avant et après les injections. Une étude par microscopie électronique a permis une comparaison histologique de l’état des cellules ciliées cochléaires entre les 2 groupes. Résultats: Les pertes auditives moyennes du groupe « Nystatin » étaient de 13.0 dB et comparables aux pertes moyennes observées dans les oreilles ayant été injectées avec du NaCl (4.0 dB dans le groupe I et 15.1 dB dans le groupe II). Le groupe de contrôle « néomycine » a subi une perte auditive moyenne de 39.3 dB, ce qui représente une différence cliniquement et statistiquement significative (p<0.001). L’étude histologique avec une microscopie à balayage électronique a démontré une conservation de l’architecture des cellules ciliées cochléaires dans les groupe Nystatin et NaCl. La néomycine a causé une destruction marquée de ces structures. Conclusions: Le Nystatin ne provoque pas d’atteinte auditive ni de destruction des cellules ciliées externes après injection directe dans l’oreille moyenne chez le cochon d’Inde.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
En Amérique du Nord, Mycoplasma bovis est le plus pathogène des mycoplasmes retrouvés chez les bovins. Les principales maladies qu’on lui associe (maladies respiratoires, mammites, arthrites septiques et otites moyennes et/ou internes) constituent un défi à l’industrie laitière à cause de la difficulté à les traiter et à les prévenir par une vaccination. L’objectif principal de ce projet était d’étudier l’excrétion nasale et la réponse sérologique à M. bovis chez les génisses de remplacement, entre la naissance et 7 mois d’âge, dans 4 troupeaux laitiers au Québec. Quatre-vingt-trois paires mère/génisse provenant de 4 cohortes de bovins laitiers étaient prélevées mensuellement (génisses : 0 à 7 mois ; mères : 0, 1 et 5 mois après vêlage). Écouvillons nasaux et échantillons de lait étaient analysés par culture bactériologique et par immunofluorescence indirecte. Les anticorps circulants étaient détectés par le test ELISA. À la naissance, la prévalence sérologique des génisses était supérieure à celle des mères (P = 0,01). La transmission de M. bovis aux génisses par le lait et par l’excrétion nasale des mères était faible. L’âge moyen (jour) d’une génisse à sa 1ère excrétion nasale et sa 1ère séroconversion à M. bovis était loin de la période néonatale: 77,5 ± 11,2 (n = 22) et 96,8 ± 7,4 (n = 36) respectivement. Conclusion, les vaches adultes n’ont constitué qu’une voie mineure de transmission de M. bovis aux génisses, la principale voie de transmission était fort probablement le contact direct ou indirect avec d’autres génisses excrétrices nasales de M. bovis.
Resumo:
Plusieurs aminoglycosides font partie d’une famille d’antibiotiques à large spectre d’action. Les aminoglycosides ayant une activité antibiotique viennent interférer dans la synthèse protéique effectuée par les bactéries. Les protéines mal codées entraineront la mort cellulaire. Au fil des années, de nombreux cas de résistance ont émergé après une utilisation soutenue des aminoglycosides. De nombreux aminoglycosides semi-synthétiques ont été synthétisés avec comme objectif de restaurer leur activité antimicrobienne. Parmi les modifications ayant connu du succès, notons la didésoxygénation d’un diol et l’introduction de la chaine latérale HABA. Des études précédentes ont montré l’efficacité de ces modifications sur les aminoglycosides. Les présents travaux portent sur l’installation de la chaine latérale HABA et la didésoxygénation d’un diol sur la paromomycine et la néomycine. La didésoxygénation sélective des diols a été effectuée en utilisant la méthodologie développée par Garegg et Samuelsson, une variation de la réaction de Tipson-Cohen. Cette méthode a permis l’obtention du motif didésoxygéné sur les cycles A et D dans des rendements jamais égalés pour ce motif synthétique. La chaîne latérale a été introduite en tirant profit de la réactivité et de la sélectivité d’un carbamate cyclique. Ces méthodes combinées ont permis la synthèse efficace de nombreux analogues semi-synthétiques nouveaux. La 3',4'-didéhydro-N-1-HABA-néomycine et la 3',4',3''',4'''-tétradésoxy-N-1-HABA-néomycine montrent une activité impressionnante contre des souches de bactéries résistantes aux aminoglycosides. Des tests de toxicité effectués en collaboration avec Achaogen Inc. ont démontré que ces composés sont relativement toxiques sur les cellules rénales de type H2K, ce qui réduit de façon importante leur index thérapeutique. Afin d’abaisser la toxicité des composés, la relation entre toxicité et basicité a été explorée. Des substitutions de l’amine en 6''' ont été effectuées afin d’abaisser la basicité de l’amine. Les résultats de toxicité et d’activité antimicrobienne démontrent une corrélation importante entre la basicité des amines et la toxicité/activité des aminoglycosides antibiotiques. L’effet d’une modulation du pKa a aussi été exploré en installant des chaines fluorées sur l’amine en 6''' de la paromomycine et de la néomycine. Une séquence synthtétique pour isoler l’amine en 6''' de la néomycine a aussi été développée.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Il est reconnu que les résultats électoraux au Canada varient grandement selon la région. Afin de trouver des explications à ce phénomène, il convient d’étudier comment les grandes régions du Canada se distinguent les unes des autres sur le plan politique. La présente recherche amorce cette étude sous l’angle de l’idéologie. Elle tente de déterminer en quoi l’idéologie politique diffère d’une région à l’autre du pays. Elle s’appuie sur les données des études électorales canadiennes de 2008. On a recours à des questions évaluant les préférences des répondants par rapport à plusieurs enjeux politiques pour répondre à la question de recherche. On conduit en premier lieu une analyse factorielle, qui identifie six facteurs qui ont structuré l’opinion publique lors de l’élection de 2008. Ensuite, des tests T sont conduits pour vérifier si les moyennes de ces facteurs idéologiques sont statistiquement différentes d’une région à l’autre. Les résultats montrent que les différences régionales sont souvent significatives et suivent les hypothèses. Toutefois, les résultats touchant à la privatisation de la santé ainsi qu’au Manitoba et à la Saskatchewan vont à l’encontre des attentes.
Resumo:
La digestion anaérobie est un processus biologique dans lequel un consortium microbien complexe fonctionnant en absence d’oxygène transforme la matière organique en biogaz, principalement en méthane et en dioxyde de carbone. Parmi les substrats organiques, les lipides sont les plus productifs de méthane par rapport aux glucides et aux protéines; mais leur dégradation est très difficile, en raison de leur hydrolyse qui peut être l’étape limitante. Les algues peuvent être une source importante pour la production de méthane à cause de leur contenu en lipides potentiellement élevé. L’objectif de cette étude était, par conséquent, d’évaluer la production en méthane des microalgues en utilisant la technique du BMP (Biochemical méthane Potential) et d’identifier les limites de biodégradion des lipides dans la digestion anaérobie. Le plan expérimental a été divisé en plusieurs étapes: 1) Comparer le potentiel énergétique en méthane des macroalgues par rapport aux microalgues. 2) Faire le criblage de différentes espèces de microalgues d’eau douce et marines afin de comparer leur potentiel en méthane. 3) Déterminer l'impact des prétraitements sur la production de méthane de quelques microalgues ciblées. 4) Identifier les limites de biodégradation des lipides algaux dans la digestion anaérobie, en étudiant les étapes limitantes de la cinétique des lipides et de chacun des acides gras à longues chaines. Les résultats ont montré que les microalgues produisent plus de méthane que les macroalgues. Les BMP des microalgues d'eau douce et marines n'ont montré aucune différence en termes de rendement en méthane. Les résultats des prétraitements ont montré que le prétraitement thermique (microonde) semblait être plus efficace que le prétraitement chimique (alcalin). Les tests de contrôle du BMP faits sur l'huile de palme, l’huile de macadamia et l'huile de poisson ont montré que l'hydrolyse des huiles en glycérol et en acides gras à longues chaines n'était pas l'étape limitante dans la production de méthane. L'ajout de gras dans les échantillons de Phaeodactylum dégraissée a augmenté le rendement de méthane et cette augmentation a été corrélée à la quantité de matières grasses ajoutées.