15 resultados para indice de masse corporelle
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
L'étude porte sur la relation entre la mesure des plis cutanés et l'indice de masse corporelle (IMC) chez une clientèle estrienne du primaire et du secondaire. L'expérimentation se réalise dans cinq écoles et regroupe 772 étudiants âgés de 7 à 17 ans. Les résultats démontrent que la majorité des corrélations entre les mesures d'adiposité du triceps et du mollet, des cinq plis (triceps, biceps, sous-scapulaire, iliaque et mollet) et du triceps avec l'indice de masse corporelle sont significatives, bonnes et élevées à presque tous les niveaux d'âge des filles et des garçons estriens de 7 à 17 ans. Ces résultats confirment donc les trois hypothèses de corrélations significatives entre les mesures d'adiposité choisies et l'IMC. La mesure de comparaison est l'indice de masse corporelle des filles et des garçons américains du même âge. La majorité des indices de masse corporelle calculés chez les sujets de l'étude est également inférieure aux indices de masse corporelle des sujets de même âge du Physitest Canadien (1987). Les professeurs d'éducation physique ont donc le choix entre différentes possibilités pour avoir un indice de mesure anthropométrique valable pour les filles et les garçons de 7 à 17 ans. La mesure des deux plis adipeux du triceps et du mollet sont fortement en relation avec l'IMC au primaire. La somme des cinq plis (SPC) est fortement en relation avec l'IMC au secondaire. Même l'utilisation de la mesure du pli adipeux du triceps peut être utilisée à presque tous les âges du primaire et du secondaire. On peut conclure que l'indice de masse corporelle peut être utilisé avec exactitude comme une méthode alternative ne nécessitant pas de dépenses onéreuses comme l’achat d'un bon adiposomètre.
Resumo:
Le but de cette étude est de comparer certains paramètres anthropométriques (le poids, l'indice de masse corporelle, le pli adipeux du triceps, la somme des plis cutanés) et physiologiques (la performance en minutes au test Léger navette, la pression systolique et diastolique). L'expérimentation d'une durée de trois semaines se réalise à l'école La Maisonnée, située à Rock Forest et regroupe 80 sujets âgés de 7 à 11 ans qui sont divisés en deux groupes. Le groupe contrôle de 40 sujets ayant une pression artérielle normale (< 90e percentile selon l'âge et le sexe) et le groupe expérimental est composé de 40 sujets ayant une pression artérielle élevée (> 90e percentile selon l'âge et le sexe). Les résultats démontrent des différences significatives entre le groupe contrôle et le groupe expérimental au niveau de la pression systolique et diastolique, du poids, de l'indice de masse corporelle, du pli adipeux du triceps, de la somme des plis cutanés et de la performance en minutes au test Léger navette. De plus, cette étude révèle qu'il y a beaucoup plus d'enfants du deuxième cycle que du premier cycle du primaire qui ont une pression artérielle élevée. En sachant maintenant que l'hypertension est un facteur de risque important de la maladie coronarienne et qu'elle est souvent une conséquence de l'obésité, des mesures devraient être entreprises afin de prévenir ce problème chez l'enfant. En terminant, un programme d'activité physique pourrait être implanté dans les écoles pour diminuer ce problème qui prend de plus en plus d'ampleur à chaque année.
Resumo:
Les porteurs de l’apolipoprotéine E ε4 (APOE4) sont à risque accru de développer un déclin cognitif et/ou des maladies cardiovasculaires comparativement aux non-porteurs. Ceci serait partiellement attribuable à un débalancement dans le métabolisme de l’acide docosahexaénoïque (DHA), un acide gras (AG) polyinsaturé oméga-3 qui joue un rôle crucial dans la santé du cerveau et du cœur. La consommation d’une diète riche en AG saturés et la présence de surpoids pourraient exacerber ce débalancement puisque ces facteurs modifient l’homéostasie du DHA. Des données préliminaires suggèrent que la consommation d’un supplément à haute dose de DHA, sur le long terme, permettrait de rétablir l’homéostasie de cet AG chez les porteurs de l’APOE4. L’objectif de la première étude était d’évaluer la réponse plasmatique à un supplément de DHA chez des participants consommant une diète riche en AG saturés, et ce, en fonction de l’indice de masse corporelle (IMC) et du statut de porteur de l’APOE4. Cette étude a démontré une interaction génotype x IMC sur la réponse plasmatique de l’acide arachidonique (AA) et du DHA au supplément. De plus, les porteurs de l'APOE4 étaient de plus faibles répondeurs au supplément de DHA comparativement aux non-porteurs, mais seulement chez les participants en surpoids. L’objectif de la seconde étude était d’évaluer si une diète riche en DHA pendant huit mois permet de rétablir les niveaux de DHA dans le foie de souris porteuses de l’APOE4 et d’évaluer si les transporteurs hépatiques d’AG sont impliqués dans ce rétablissement. Les résultats ont démontré que sous une diète contrôle, les concentrations hépatiques d’AA et de DHA étaient plus élevées chez les souris APOE4 comparativement aux souris APOE3 et que le transporteur d’AG hépatiques FABP1 est impliqué. Par contre, chez les souris ayant consommé la diète riche en DHA, les niveaux d’AA et de DHA étaient similaires entre les génotypes. Ceci suggère qu’une supplémentation à long terme en DHA pourrait rétablir l’homéostasie de l’AA et du DHA chez les porteurs de l’APOE4. Puisque le DHA est impliqué dans la santé du cerveau et du cœur, la consommation de hautes doses de DHA chez les porteurs de l’APOE4 pourrait contribuer à diminuer leur risque de développer un déclin cognitif et/ou des maladies cardiovasculaires mais cette association devra être évaluée dans des études ultérieures.
Resumo:
Comprendre de quelle façon les populations animales répondent aux conditions qui prévalent dans leur environnement revêt une grande importance. Les conditions climatiques et météorologiques sont une source importante de variabilité dans l'environnement et celles-ci ont des répercussions sur les espèces sauvages, en affectant leur physiologie, leur comportement et leurs ressources. Les ongulés alpins et nordiques font face à une succession annuelle de conditions environnementales favorables et défavorables, entraînant chez ceux-ci d'importants changements de masse saisonniers. Chez ces grands herbivores, la masse est importante puisqu'elle est positivement corrélée à la survie et à la reproduction. C'est pourquoi il est essentiel d'investiguer les paramètres affectant les changements de masse saisonniers. L'objectif principal de ma maîtrise était donc d'identifier et de mieux comprendre l'effet des conditions climatiques et météorologiques sur les changements de masse estivaux et hivernaux d'un ongulé alpin: le mouflon d'Amérique (Ovis canadensis). Pour atteindre cet objectif, j'ai utilisé les données du suivi à long terme de la population de mouflons de Ram Mountain, Alberta. Les mesures de masse répétées prises lors des captures permettent d'estimer la masse printanière et automnale des individus, ainsi que leur gain de masse estival et leur changement de masse hivernal. En affectant les coûts énergétiques de la thermorégulation et des déplacements et en influençant la végétation, les conditions climatiques et météorologiques peuvent avoir d'importantes conséquences sur les changements de masse des ongulés alpins. La température, les précipitations et un indice de climat global (le «Pacific Decadal Oscillation»; PDO) ont donc été utilisés afin de caractériser les conditions environnementales et d'investiguer les effets de ces variables sur les changements de masse saisonniers des individus de différentes classes d'âge et de sexe. Des températures froides au printemps ont engendré de plus grands gains de masse estivaux. Des printemps froids peuvent ralentir la maturation des plantes, engendrant une plus grande période où il est possible de s'alimenter de jeunes plantes nutritives, ce qui explique probablement cet effet positif des printemps froids. Cet effet doit toutefois être nuancé puisque les changements de masse hivernaux étaient également influencés par la température printanière, avec des printemps chauds menant à de plus faibles pertes de masse. Il semble que cet effet était dû à une apparition hâtive de la végétation, menant à une prise de masse des mouflons avant qu'ils ne soient capturés au printemps. Cela suggère qu'en affectant la disponibilité et la qualité de la végétation, les conditions printanières ont des répercussions à la fois sur le gain de masse estival, mais également sur les changements de masse hivernaux des mouflons. Le PDO au printemps a un effet positif important sur le gain de masse des adultes mâles lorsque la densité est faible. Des températures chaudes à l'automne engendrent de plus grands gains de masse pendant l'hiver chez les agneaux mâles (la plupart des agneaux gagnent de la masse l'hiver), potentiellement en augmentant la période possible de prise de masse pour ces jeunes individus. Les femelles de deux ans et les mâles adultes ont perdu plus de masse lors d'hivers avec beaucoup de précipitations et des températures froides, respectivement. Finalement, ce projet de recherche a permis d'identifier les variables climatiques et météorologiques clés affectant les changements de masse saisonniers d'un ongulé alpin. Cette étude a également mis en évidence des effets du PDO sur les changements de masse saisonniers, soulignant que de tels indices peuvent s'avérer utiles afin de les mettre en lien avec la variation phénotypique chez les espèces sauvages, et ce sans qu'il n'y ait nécessairement de fortes corrélations entre ces indices et les variables météorologiques locales.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
L’augmentation des chaleurs estivales jumelée à l’augmentation des fréquences de smog affectera la santé publique. Le phénomène des îlots de chaleur urbain apporte son lot d’impacts environnementaux, sociaux et économiques partout à travers le monde. La perte de biodiversité, les maladies pulmonaires, la pauvreté et contamination des sols, les dépenses astronomiques liées aux traitements des eaux pluviales obligent les acteurs du territoire à trouver des mesures d’atténuation plus durable et impactant. Dans la foulée, le verdissement sous l’approche de l’arbre apparait comme une des stratégies les plus douces et simples à mettre en œuvre. Les bénéfices encourus par ces grands êtres vivants que sont les arbres peuvent aussi jouer à la fois sur l’économie, l’environnement et la santé. D’où l’engouement des métropoles à verdir leur espace urbain : parc, corridor forestier, îlot de verdure, etc. Alors que certaines villes visent à augmenter leur indice de canopée, d’autres espèrent seulement procurer de meilleures conditions de vie à leur masse citoyenne. Dans les grandes villes et les régions occidentales, dont au Québec et à Montréal, le verdissement demeure un terme récent et méconnu. L’objectif du document est de recommander des méthodes d’actions de verdissement à l’échelle des parcs industriels montréalais. Celui de l’arrondissement d’Anjou a été choisi comme étude de cas. Les conclusions de l’analyse permettent de réaliser qu’un projet de plantation d’arbres en milieu industriel se déroule en 2 phases et 10 étapes. En tenant compte du diagnostic territorial réalisé en amont, les acteurs du territoire ciblent des enjeux afin d’établir des situations gagnantes aux projets de verdissement. Cette démarche vise à insuffler un nouveau visage aux parcs industriels montréalais. Les territoires industriels ont trop longtemps été des lieux ingrats, sous-utilisés et dépourvus d’arbres, toutefois ils témoignent d’un immense potentiel de verdissement. D’où la raison d’y accorder une importance. Pour faire face à ce changement de vision, les élus, les énarques et les acteurs du territoire montréalais doivent miser : sur le développement d’une cohérence des politiques sectorielles, sur le renforcement des règlements d’urbanismes, sur une réelle lutte aux ICU et à l’atteinte des objectifs du Plan d’action canopée, sur la création d’incitatifs économiques favorables, sur le développement des capacités et enfin sur le réseautage des citoyens ainsi que sur le réseautage des adeptes de l’aménagement durable.
Resumo:
Résumé : Les aménagements axés sur le transport en commun (transit-oriented development ou TOD) reposent sur la création de développements résidentiels à proximité d’un nœud de transport existant. Dans le cadre de cet essai, on cherche plutôt à identifier les quartiers existants de Montréal possédant déjà les caractéristiques propices à l’aménagement d’un TOD, mais mal desservis par les transports en commun. En s’inspirant d’une étude menée aux Pays-Bas, on a eu recours à une analyse spatiale multicritères afin de concevoir un «indice du potentiel TOD», comportant quatre critères jugés essentiels, soit : la densité d’habitants, la mixité des utilisations du sol, la mixité sociale, ainsi que la distance aux transports. Malgré la difficulté d’intégrer l’ensemble des critères identifiés dans la littérature, les résultats révèlent un fort potentiel TOD sur le Plateau Mont-Royal, dans le Sud-Ouest, Hochelaga-Maisonneuve et plus particulièrement dans Anjou et Saint-Michel. On recommande notamment un secteur situé dans Saint-Michel, dont le potentiel TOD pourrait être enrichi par la création de plus fortes connexions au réseau de transports en commun.
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
Resumo:
Le smog photochimique est un phénomène qui prend de l'ampleur dans les grandes villes industrialisées. Il est la cause de plusieurs maladies respiratoires. Son apparition provient majoritairement des polluants émis par les véhicules automobiles, soit les hydrocarbures et les oxydes d'azote. Le rayonnement du soleil interagit avec ces espèces chimiques et le dioxygène présent dans l'atmosphère pour mener à une production d'ozone troposphérique importante. L'ozone en basse altitude endommage les écosystèmes et est nocif pour la santé humaine. Le sujet de recherche est d'abord axé sur la réaction limitante du processus qui crée le smog photochimique : la photolyse du dioxyde d'azote. Quoique cette réaction est assez bien connue dans la littérature en phase gazeuse, les données expérimentales en phase condensée sont manquantes. Les travaux ont été effectués dans le but de combler le manque d'information à ce sujet. En premier lieu, les conditions optimales pour l'isolation du NO[indice inférieur 2] par matrice de gaz rare ont été déterminées. Par la suite, l'irradiation des échantillons du mélange NO[indice inférieur 2] et gaz rare a été effectuée. Par spectroscopie infrarouge à angle rasant, il a été possible de suivre l'évolution de la destruction des molécules de NO[indice inférieur 2] en fonction du temps. Différentes hypothèses sont émises afin d'interpréter les données de cinétique obtenues. Ces hypothèses sont alors testées à partir d'expériences sous-jacentes ou expliquées selon des principes théoriques. Finalement, un modèle exprimant le profil du champ électrique à l'intérieur de films minces a été construit. Ce modèle s'inspire des effets d'interférences observés par spectroscopie d'absorption-réflexion. En guise de conclusion, une proposition d'expérience pour supporter le modèle du champ électrique est décrite. La portée du modèle s'étend à tous les processus impliquant un rayonnement lumineux sur une surface réfléchissante. Bien qu'il serve principalement à expliquer le taux de photolyse observé dans le cadre du projet de maîtrise, le modèle est applicable à plusieurs spectroscopies en réflexion.
Resumo:
Ce mémoire fait découvrir Cécile Gagnon en traçant, dans le chapitre 1, un portrait détaillé des différents volets de sa carrière. D'abord illustratrice, Gagnon commence sa carrière d'écrivaine, dès 1961, en publiant son premier album, aux éditions du Pélican. Jusqu' à maintenant, Gagnon a publié 135 titres, dans 28 maisons d'édition, soit 97 titres au Québec et 38 livres en Europe. En plus de sa carrière d'illustratrice et d'écrivaine, Cécile Gagnon oeuvre aux comités de direction des revues Passe-Partout (1978-1979 et 1985) et Coulicou (1983-1988). Le deuxième chapitre met en relief ses actions et ses gestes posés à titre de pionnière dans le domaine des lettres. Nous identifions, dans le dernier chapitre, les raisons pour lesquelles Cécile Gagnon demeure méconnue du grand public. Tout d'abord, la littérature de jeunesse, au Québec, est considérée comme une paralittérature par rapport à la littérature générale. De plus, 60% des oeuvres de Gagnon ont été publiées par des maisons d'édition dites économiques, selon les axes d'Ignace Cau, qui privilégient la production de masse."--Résumé abrégé par UMI
Resumo:
Cette recherche professionnelle porte sur les profils psychomoteurs d'un échantillon de 83 enfants français, garçons et filles de 7, 8 et 9 ans à hauts potentiels intellectuels rencontrant des difficultés pour apprendre à l'école primaire. Elle est mise en oeuvre au moyen d'une méthodologie mixte. Née en France, la psychomotricité est un corpus paramédical qui propose une approche éducative et de remédiation des difficultés d'apprentissage, à partir d'une conception du développement psychomoteur qui considère que les interrelations entre les fonctionnements corporels, les éprouvés émotionnels et les cognitions sont primordiales et qu'elles se réalisent et sont accessibles via l'expérience corporelle globalisante. Ce construit, et les outils d'évaluation qui en découlent, c'est-à-dire le bilan psychomoteur, sont ici mobilisés pour décrire les profils adaptatifs d'enfants à hauts potentiels intellectuels en souffrance pour apprendre. Si les principaux travaux consacrés à ces enfants hors-normes et à leurs développements atypiques évoquent leur sensibilité et fragilité, ils sont trop souvent restreints aux seuls aspects du quotient intellectuel. Les apports de la psychomotricité peuvent donc les compléter. À partir de la description du dialogue tonicoémotionnel, qui inscrit le sujet dans la continuité biologiquepsychologique, l'expérience du corps, sous le double effet de la maturation neuromotrice et du bain environnemental, évolue vers la différenciation des fonctions psychomotrices qui permet la maîtrise gestuelle, la représentation du corps, de l'espace et du temps. Ces descriptions sont cohérentes avec d'autres conceptions multi-référencées qui reconnaissent aux émotions et à leur devenir un rôle important dans le développement, comme la théorie de l'attachement. Elles conduisent au repérage de troubles psychomoteurs. Ceux-ci peuvent friner l'accès aux apprentissages scolaires notamment l'écriture. Ce sont des perturbations de l'équilibre psychocorporel. Par définition et spécifiquement, ils ne répondent pas à une atteinte neurologique et expriment une souffrance psychique. L'analyse centrée sur les variables fournit une vision générale des données collectées. Les corrélations entre les 30 rubriques sont étudiées en les classant par sphères correspondant aux fonctions psychomotrices - motricité - rythme - espace - intégration corporelle - graphomotricité; puis par processus - tonicoémotionnel - sensori-perceptivo-moteur - cognitif - apprentissage explicité. Cette taxonomie éclaire les corrélations et donc les niveaux d'organisation. Ce premier traitement statistique débouche sur a) l'intérêt de la démarche globale en psychomotricité puisque toutes les rubriques étudiées se sont avérées troublées, b) l'apport de la prise en considération des dimensions tonicoémotionnelles, c) l'importance de l'articulation sensori-perceptivo-motrice et d) une confirmation des liens entre les compétences psychomotrices et l'écriture. La seconde étape est une classification hiérarchique ascendante puis une analyse factorielle des grappes. Elle dégage des résultats concernant des différences entre les organisations internes de ces enfants sous-réalisateurs, à partir des poids respectifs des facteurs 1) de la dyspraxie et de la dysgraphie, 2) de l'hyperactivité et de l'anxiété avec impulsivité et difficultés graphiques, 3) des troubles de la motricité large et fine et de l'expression émotionnelle, 4) des troubles spatiaux, 5) des troubles visuopraxiques et de l'intégration corporelle floue, 6) des troubles diffus et légers et 7) des troubles du rythme. Ainsi les cinq grappes sont décrites de manière dynamique comme caractérisées par 1) de bonnes compétences scripturales, des difficultés légères mais aussi des perturbations du tonus musculaire, 2) des tendances dysgraphiques pour des enfants maladroits et inquiets mais aussi avec des compétences préservées, qui se différencient 3) d'enfants franchement dysgraphiques avec des difficultés à se situer et manier les informations relatives à l'espace et au rythme, 4) d'enfants également dysgraphiques mais aussi hyperactifs, anxieux et manquant de référence spatio-temporelle, et 5) de sujets qui dysgraphiques, dyspraxiques, émotifs ont des tendances hyperactives et des incertitudes visuopraxiques. Ainsi à partir de la référence holistique-interactionniste, ces résultats confirment l'intérêt des approches globales et multi-référencées pour explorer les profils des enfants dont le développement n'est pas harmonieux et qui se trouvent confrontés à des difficultés pour apprendre dans le cadre scolaire.
Resumo:
Ce mémoire étudie l'institution collégiale comme espace de vie au tournant du XXe siècle par le biais d'une étude de cas, le Collège de Sainte-Anne-de-la-Pocatière. Plus concrètement, nous tentons de répondre aux questions suivantes. Comment pense-t-on et aménage-t-on l'espace dans ce collège pour garçons entre 1860-1922? Comment façonne-t-il les identités sociales et que nous révèle-t-il sur celles-ci? Autrement dit, nous nous intéressons aux valeurs qui sont transmises et aux normes sociales qui influencent l'aménagement. Nous cherchons à connaître leur évolution au cours de la période étudiée. Nous soutenons que l'architecture, l'ordonnance spatial, de même que le décor des lieux concourent à inculquer à la jeunesse un système de valeurs qui s'accordent avec l'idéal catholique : le retrait du monde, la piété, le classicisme et le patriotisme sont celles les plus évidemment exhibées au sein du Collège. L'aménagement de l'espace collégial revêt également des fonctions de régulation sociale : il sert à différencier et à hiérarchiser la population collégiale, autant les écoliers, le corps professoral que les employés d'entretien et d'approvisionnement. À un troisième niveau, il apparaît que le Collège de Sainte-Anne se modernise au cours des soixante années examinées. En portant une attention à la sécurité de l'établissement, à l'hygiène corporelle et à l'assainissement des espaces, les nouvelles théories de la pédagogie scolaire à la fin du XIXe siècle, notamment en ce qui concerne les études dites "utilitaires", les sciences, l'exercice physique et les loisirs, affectent et transforment l'institution collégiale de Sainte-Anne. Faire ressortir les effets de l'espace sur la formation identitaire et remettre en cause l'imperméabilité et l'intemporalité de cet espace dit traditionnel constituent donc les premières préoccupations de cette recherche. Le mémoire vise ultimement à mieux comprendre les objectifs d'éducation de l'Église catholique au moment où elle connaît son âge d'or dans la Belle province.
Resumo:
Dès que l'homme entreprend de penser à sa propre existence, nécessairement il la pense et la dit comme s'il s'agissait d'une dualité: dualisme du sensible et de l'intelligible, du corps et de l'esprit... Nous nous proposons, dans les pages qui vont suivre, de réfléchir sur le sens de ce dualisme. Le problème est complexe; à la question: "Pourquoi faut-il que l'existence humaine se réfléchisse comme si elle était partagée, divisée?", on ne saurait répondre par un unique "parce que...". Dans Le Volontaire et l'Involontaire, Ricoeur reprend le problème de ce dualisme à quatre niveaux différents. Le dualisme est d'abord un problème suscité par l'entendement; celui-ci ne réalise son acte qu'en divisant; penser l'homme, c'est forcément le penser double. Mais l'entendement s'enracinant dans l'existence, penser c'est exister, d'un dualisme introduit par la pensée, nous sommes reconduits à un dualisme psychologique qui, convenablement réfléchi, doit se développer en un dualisme ontologique; l'existence se prête à une interprétation dualiste. Enfin, le problème est affecté d'un indice éthique: la faute, comme refus de l'être, vient dramatiser l'acte de penser; le sujet pensant passionnément sa condition d'homme, érige en dogme le dualisme institué par l'entendement. Comme la faute, au point de départ de la réflexion de Ricoeur, est mise entre parenthèses, comme d'autre part, Le Volontaire et l'Involontaire est un essai de psychologie philosophique, nous ne pourrons, dans ce travail, qu'esquisser le sens des dualismes éthique et ontologique.