1000 resultados para Rendements en coupe transversale
Resumo:
L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).
Resumo:
Deux études récentes ont décrit l'industrie du transport écolier du Québec comme une industrie composée d'une multitude de petites et moyennes entreprises de type familial. L'étude gouvernementale établit, entre autres, que 75 % des entreprises de cette industrie possèdent une flotte de moins de 10 véhicules. Ce constat nous a amené à nous questionner sur le type de technologie utilisée par les entreprises de cette industrie et, en particulier, sur l'existence de rendement d'échelle. Nous savons, qu’à priori, une industrie composée de plusieurs PME peut être caractérisée par des rendements d'échelle constants. D'autre part, le profil économique, tracé par les deux études mentionnées ci-dessus, nous démontre qu'il existe au sein de cette activité économique des entreprises de très grande taille comparativement à la majorité. Il nous est donc apparu intéressant de comparer la technologie de ces grandes entreprises au reste de l'industrie et de vérifier si celles-ci bénéficiaient des mêmes rendements d'échelle. La disponibilité des données nous a permis d'élargir notre recherche et d'évaluer les distinctions technologiques qui caractérisent les entreprises syndiquées et non syndiquées. L'objectif principal de cette recherche consiste à analyser la technologie utilisée par les entreprises de l'industrie du transport écolier du Québec et à évaluer les niveaux respectifs de rendements d'échelle qui les caractérisent. Nous nous appuierons, pour atteindre notre objectif, sur une méthodologie reconnue et très largement utilisée dans l'étude de la technologie des entreprises: le théorème de la dualité et l'étude des formes fonctionnelles flexibles. Le premier chapitre décrira brièvement le théorème de la dualité et présentera différentes formes fonctionnelles de la fonction de coût. La deuxième partie de ce chapitre sera consacrée à la forme fonctionnelle retenue, soit la Translog. Le manque de données disponibles, concernant les coûts d'opération de l'industrie du transport écolier du Québec, nous a obligé à concevoir et à élaborer une banque de données représentative du transport écolier au Québec. La création de cette source d'informations a exigé plus de 50 % des heures de travail allouées à cette étude. Nous présenterons dans notre deuxième chapitre l'approche d'échantillonnage utilisée ainsi que la définition de chacune des variables de notre fonction de coût. Enfin, notre dernier chapitre présentera les résultats observés et les comparera avec ceux obtenus par d'autres chercheurs. Nous terminerons notre recherche par une synthèse de nos résultats.
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
The rehabilitation of the old cocoa ( Theobroma cacao L. ) farms is one of the major challenges for a sustainable cocoa production. A study was carried out to set up a guide which could be used as a decision making tool for a quick and efficient diagnosis of the old cocoa orchards and to choose the appropriate regeneration option (rehabilitation or replanting). A sample of 90 rehabilitated cocoa farms and of 75 replanted cocoa farms was surveyed in 12 regions representing the three main cocoa producing sectors in the country. Data were collected on the key agronomic characteristics of these cacao farms. These were cocoa variety, farm size, age, yield, planting density, number of shade trees and the level of damages caused by insects and diseases. The results showed that age, planting density and yield were the discriminating criteria of these farms. The average values of these criteria were 25 to 30 years for the age, 800 to 1 000 trees ha-1 for the planting density and 250 to 400 kg ha-1 an-1 for the yield. Based on these criteria and their average values, a decision making guide was designed for the diagnosis of cocoa farms and the choice of regeneration option. According to this guide, old cocoa farms (more than 25 years), degraded and unproductive should be replanted. However, younger farms having planting density and yield higher than the average values above should be rehabilitated.
Resumo:
Objectif : Examiner la relation entre l’accès aux ressources alimentaires et le degré de l’insécurité alimentaire du ménage parmi les nouveaux utilisateurs des organismes communautaires d’intervention en sécurité alimentaire de Montréal. Méthode : Étude observationnelle transversale. Elle consiste en une analyse secondaire de données (n=785) qui proviennent du premier temps de mesure de l’enquête sur les effets des interventions en sécurité alimentaire à Montréal menée entre 2011 et 2012. La variable dépendante a été l’insécurité alimentaire. Les variables indépendantes ont été le mode de transport utilisé pour transporter les aliments, l’emplacement de l’épicerie la plus fréquentée par le participant, la distance entre l’organisme communautaire fréquenté par le participant et son domicile, la proximité de l’épicerie la plus fréquentée, la satisfaction quant à l’acceptabilité et le caractère abordable des aliments dans l’épicerie la plus fréquentée, et les difficultés d’accès aux aliments. Des régressions logistiques furent effectuées afin d’évaluer la relation entre les variables indépendantes et le degré de l’insécurité alimentaire, en utilisant l’insécurité sévère comme catégorie de référence. Résultats : Nos données suggèrent que la sévérité de l’insécurité alimentaire est associée à la difficulté d’accès aux aliments à cause de la cherté des aliments (pour la sécurité alimentaire, OR=0.13; CI : 0.07-0.25 et pour l’insécurité alimentaire modérée, OR=0.42; CI : 0.28-0.63), au fait de faire l’épicerie à l’extérieur du quartier ou de faire rarement l’épicerie (pour l’insécurité alimentaire modérée, OR=0.50, CI : 0.30-0.84), au fait d’avoir accès au transport collectif (pour l’insécurité alimentaire modérée, OR=1.73; CI : 1.09-2.73), au fait de résider à une distance moyenne (soit entre 1000 et 2000 mètres) d’un organisme communautaire en sécurité alimentaire (pour l’insécurité alimentaire modérée, OR=1.83; CI : 1.14-2.92), et à la difficulté d’accès aux aliments à cause de contraintes de transport (pour la sécurité alimentaire, OR=0.18, CI : 0.06-0.52). Conclusion : L’accès aux ressources alimentaires est associé au degré de l’insécurité alimentaire des nouveaux ménages participant aux interventions en sécurité alimentaire à Montréal.
Resumo:
La conchyliculture, et principalement l’élevage de l’huître creuse, Crassostrea gigas, constitue la principale activité aquacole française. Cette activité repose, en grande partie, sur le recrutement naturel de l’espèce qui assure 60 à 70% des besoins en jeunes huîtres (naissain) : cette activité de collecte s’appelle le captage. Les deux principaux centres de captage en France sont les bassins d’Arcachon et de Marennes-Oléron. Or, depuis une dizaine d'années, sur le bassin d'Arcachon, le captage devient très variable: à des années de captage nul (par exemple 2002, 2005, 2007) ou faible (2009, 2010, 2011) succèdent des années excellentes voire pléthoriques (2003, 2006, 2008, 2012, 2014). A Marennes-Oléron, cette variabilité existe, mais s’avère beaucoup moins marquée. En outre, à la faveur du lent réchauffement des eaux, le captage peut désormais se pratiquer de plus en plus vers le nord. Ainsi, la baie de Bourgneuf, mais aussi la rade de Brest sont devenues, depuis quelques années, des secteurs où un nombre croissant d’ostréiculteurs pratiquent le captage avec succès, mais avec, là aussi, des irrégularités dans le recrutement qu’il convient de comprendre. Enfin, depuis la crise des mortalités de 2008, il se développe aussi sur la lagune de Thau une volonté de pratiquer le captage. Afin de mieux comprendre les facteurs de variations du captage, l’Ifremer a mis en place, à la demande du Comité National de la Conchyliculture, un réseau national de suivi de la reproduction : le Réseau Velyger. Créé en 2008 sur financements européens et financé désormais par la Direction des Pêches Maritimes et de l’Aquaculture, ce réseau apporte, chaque année, sur les écosystèmes cités précédemment, une série d’indicateurs biologiques (maturation, fécondité, date de ponte, abondance et survie larvaire, intensité du recrutement, survie du naissain) dont l’analyse croisée avec des indicateurs hydrologiques et climatiques permet progressivement de mieux appréhender les causes de variabilité du recrutement de l’huître creuse en France, modèle biologique et espèce clé de la conchyliculture française. Ce rapport présente donc les résultats 2015 de ce réseau d’observation et fait appel, pour la partie hydro-climatique, à des données acquises par d’autres réseaux régionaux et nationaux. Il détaille et analyse par site toutes les caractéristiques du cycle de reproduction de l’huître creuse : maturation et fécondité des adultes, période de ponte, abondance et survie des larves, intensité du captage et mortalités précoces. Il fournit ensuite une interprétation et une synthèse des résultats 2015 à la lueur des résultats des années antérieures. Ainsi, pour l’année 2015, on retient les faits majeurs suivants : • Sur le plan hydro-climatique, cette année se caractérise par un hiver doux et un printemps dans les normales, suivis d’un été là aussi très proches des normales à quelques exceptions près : l’étang de Thau affiche tout au long de l’été des températures largement excédentaires. Compte tenu d’une pluviométrie là aussi proche des normales, les concentrations en phytoplancton sont restées à un niveau moyen de la rade de Brest aux pertuis charentais et plutôt déficitaires dans le bassin d’Arcachon et la lagune de Thau. • En termes de biologie, ces conditions hydro-climatiques se sont traduites, chez les populations d’huîtres adultes, par des indices de condition, proxy de la fécondité, généralement proches des moyennes, avec toujours l’existence d’un gradient nord-sud observé chaque année, corrélativement à la concentration en phytoplancton. En outre, l’absence d’excédent thermique au printemps et en début d’été n’a pas permis de ponte précoce (à l’exception de la lagune de Thau), elle a même été plutôt tardive surtout dans le bassin d’Arcachon. • Sur la façade atlantique, les températures de l’eau lors du développement larvaire des principales cohortes ont été plutôt basses (inférieures à 20°C en rade de Brest et inférieures à 21°C ailleurs) et donc la vitesse de croissance larvaire a été ralentie et la survie amoindrie. Les rendements larvaires ont été effectivement très bas (e.g. 0,002 % à Arcachon). In fine, il y a eu peu de larves grosses dans l’eau, ce qui s’est traduit par un captage faible à modéré. Une exception tout de même : dans la lagune de Thau, les températures caniculaires tout au long de l’été ont permis une concentration moyenne de larves ‘grosses’ modérée (80 larves/1,5m3). Cependant, les méthodes et les techniques de captage sont encore en cours d’optimisation sur ce secteur et cette année, malgré cette présence de larves grosses, le captage est resté faible (< 10 naissains par coupelle à l’automne). • En conséquence, l’année 2015, se caractérise par un captage globalement « faible à modéré » dans tous les secteurs s’échelonnant autour de 10 naissains/coupelle dans la lagune de Thau et en baie de Bourgneuf à plus de 200 naissains/coupelle dans les pertuis charentais. Enfin, à partir de l’ensemble des résultats acquis depuis 2008, ce rapport fournit en conclusion une série de recommandations à prendre en compte pour préserver le captage dans les années à venir.
Resumo:
Les petites molécules de type p à bandes interdites étroites sont de plus en plus perçues comme des remplaçantes possibles aux polymères semi-conducteurs actuellement utilisés conjointement avec des dérivés de fullerènes de type n, dans les cellules photovoltaïques organiques (OPV). Par contre, ces petites molécules tendent à cristalliser facilement lors de leur application en couches minces et forment difficilement des films homogènes appropriés. Des dispositifs OPV de type hétérojonction de masse ont été réalisés en ajoutant différentes espèces de polymères semi-conducteurs ou isolants, agissant comme matrices permettant de rectifier les inhomogénéités des films actifs et d’augmenter les performances des cellules photovoltaïques. Des polymères aux masses molaires spécifiques ont été synthétisés par réaction de Wittig en contrôlant précisément les ratios molaires des monomères et de la base utilisée. L’effet de la variation des masses molaires en fonction des morphologies de films minces obtenus et des performances des diodes organiques électroluminescentes reliées, a également été étudié. La microscopie électronique en transmission (MET) ou à balayage (MEB) a été employée en complément de la microscopie à force atomique (AFM) pour suivre l’évolution de la morphologie des films organiques minces. Une nouvelle méthode rapide de préparation des films pour l’imagerie MET sur substrats de silicium est également présentée et comparée à d’autres méthodes d’extraction. Motivé par le prix élevé et la rareté des métaux utilisés dans les substrats d’oxyde d’indium dopé à l’étain (ITO), le développement d’une nouvelle méthode de recyclage eco-responsable des substrats utilisés dans ces études est également présenté.
Resumo:
Dans les modèles d’évaluation d’actifs financiers, la stratégie de placement d’un individu est liée à la distribution des rendements des actifs inclus dans son portefeuille. Le modèle intertemporel d’évaluation des actifs financiers basé sur la consommation (C-CAPM) permet d’intégrer la dimension temporelle dans le cadre d’analyse et de comprendre l’arbitrage entre les décisions de consommation et d’épargne d’un individu. La prédiction fondamentale de ce modèle est l’existence d’un lien entre les rendements des actifs financiers et leur covariance avec le taux marginal de substitution intertemporel (TMSI). Dans un cadre théorique, l’énigme de la prime de risque est mise en évidence lorsqu’une fonction d’utilité de type CRRA est utilisée afin de représenter les préférences du consommateur. La rigidité de cette modélisation impose cependant un coefficient d’aversion au risque fixe réconciliant difficilement le modèle avec les données réelles. Ce mémoire a pour objectif de résoudre cette problématique en modifiant les formulations classiques du TMSI. Dans un contexte canadien, nous modifions la forme CRRA afin de déterminer, entre autres, si les variations du produit intérieur brut ont un effet sur le niveau d’aversion au risque d’un agent. Par la suite, nous insérons la richesse immobilière dans une forme d’utilité non-séparable comme proxy du rendement de la richesse. Nos résultats suggèrent qu’il est pertinent, sur une longue période, de tenir compte de la richesse immobilière dans le programme de consommation de l’agent.
Resumo:
Méthodologie: Modèle de Fama-French
Resumo:
Résumé : Problématique : Puisque les enfants de moins de cinq ans passent environ 29 heures par semaine dans les milieux de garde et qu’ils apprennent en observant et en imitant les autres, les éducateurs et les pairs peuvent être des modèles importants dans l’apprentissage de saines habitudes de vie. Les objectifs étaient d’analyser les associations entre 1) les pratiques des éducateurs et l’apport alimentaire, 2) l’activité physique (AP) des enfants de trois à cinq ans dans les milieux de garde, 3) le degré d’influence des pairs sur l’apport alimentaire, et 4) l’AP des enfants de trois à cinq ans. Méthodes : Les associations entre les pratiques des éducateurs et les comportements liés à l’apport alimentaire et l’AP des enfants ont été étudiées à l’aide d’une étude transversale, menée auprès de 723 enfants de trois à cinq ans de 51 milieux de garde en Saskatchewan et au Nouveau-Brunswick à l’automne 2013 et 2014. Le degré d’influence des pairs sur l’apport alimentaire et l’AP des enfants a été étudié à l’aide d’une étude longitudinale, menée auprès de 238 enfants de trois à cinq ans au début et à la fin des années scolaires 2013-2014 et 2014-2015. L’AP des enfants a été mesurée à l’aide d’accéléromètres, et l’apport alimentaire a été mesuré à l’aide d’une analyse de consommation par pesée et photographiée. Une grille d’observation de l’environnement a permis de mesurer les pratiques des éducateurs en milieu de garde. Des régressions linéaires multiniveaux ont répondu aux quatre objectifs de l’étude. Résultats : Le modelage est positivement associé à l’apport en sucre (p=0,026) et l’éducation alimentaire est négativement associée à l’apport en calories (p=0,026) et en fibres (p=0,044). Ne pas utiliser de récompenses alimentaires est négativement associée à l’apport en gras (p=0,049). Aucune pratique n’est associée à l’AP des enfants. Plus l’écart entre l’apport alimentaire et l’AP des enfants et ceux de leurs pairs est grand au début de l’année, plus les enfants voient leur apport alimentaire et leur AP changer, se rapprochant de la moyenne de leurs pairs neuf mois plus tard (p<0,05). Conclusion : Les éducateurs et les pairs jouent un rôle important dans l’adoption d’habitudes alimentaires saines et d’AP chez les enfants de trois à cinq ans dans les milieux de garde. L’environnement social est donc important à considérer dans les interventions de promotion d’habitudes de vie saine dans les milieux de garde.
Resumo:
In the title compound, C17H15NO4, the conformation about the C=C double bond [1.348 (2) Å] is E with the ketone group almost co-planar [C-C-C-C torsion angle = 7.2 (2)°] but the phenyl group twisted away [C-C-C-C = 160.93 (17)°]. The terminal aromatic rings are almost perpendicular to each other [dihedral angle = 81.61 (9)°] giving the mol-ecule an overall U-shape. The crystal packing feature benzene-C-H⋯O(ketone) contacts that lead to supra-molecular helical chains along the b axis. These are connected by π-π inter-actions between benzene and phenyl rings [inter-centroid distance = 3.6648 (14) Å], resulting in the formation of a supra-molecular layer in the bc plane.
Resumo:
In the title compound, C17H14N2O6, the conformation about the C=C double bond [1.345 (2) Å] is E, with the ketone moiety almost coplanar [C-C-C-C torsion angle = 9.5 (2)°] along with the phenyl ring [C-C-C-C = 5.9 (2)°]. The aromatic rings are almost perpendicular to each other [dihedral angle = 86.66 (7)°]. The 4-nitro moiety is approximately coplanar with the benzene ring to which it is attached [O-N-C-C = 4.2 (2)°], whereas the one in the ortho position is twisted [O-N-C-C = 138.28 (13)°]. The mol-ecules associate via C-H⋯O inter-actions, involving both O atoms from the 2-nitro group, to form a helical supra-molecular chain along [010]. Nitro-nitro N⋯O inter-actions [2.8461 (19) Å] connect the chains into layers that stack along [001].
Resumo:
Nonalcoholic fatty liver disease (NAFLD) is common among subjects who undergo bariatric surgery and its postsurgical improvement has been reported. This study aimed to determine the evolution of liver disease evaluated through NAFLD fibrosis score 12 months after surgery. It is a prospective cohort study which evaluated patients immediately before and 12 months following Roux-en-Y gastric bypass (RYGB). Mean score decreased from 1.142 to 0.066; surgery led to a resolution rate of advanced fibrosis of 55 %. Resolution was statistically associated with female gender, percentage of excess weight loss, postsurgical body mass index, postsurgical platelet count, and diabetes resolution. As previously reported by studies in which postsurgical biopsies were performed, RYGB leads to a great resolution rate of liver fibrosis. Since postsurgical biopsy is not widely available and has a significant risk, calculation of NAFLD fibrosis score is a simple tool to evaluate this evolution through a noninvasive approach.