11 resultados para rendements
Resumo:
Deux études récentes ont décrit l'industrie du transport écolier du Québec comme une industrie composée d'une multitude de petites et moyennes entreprises de type familial. L'étude gouvernementale établit, entre autres, que 75 % des entreprises de cette industrie possèdent une flotte de moins de 10 véhicules. Ce constat nous a amené à nous questionner sur le type de technologie utilisée par les entreprises de cette industrie et, en particulier, sur l'existence de rendement d'échelle. Nous savons, qu’à priori, une industrie composée de plusieurs PME peut être caractérisée par des rendements d'échelle constants. D'autre part, le profil économique, tracé par les deux études mentionnées ci-dessus, nous démontre qu'il existe au sein de cette activité économique des entreprises de très grande taille comparativement à la majorité. Il nous est donc apparu intéressant de comparer la technologie de ces grandes entreprises au reste de l'industrie et de vérifier si celles-ci bénéficiaient des mêmes rendements d'échelle. La disponibilité des données nous a permis d'élargir notre recherche et d'évaluer les distinctions technologiques qui caractérisent les entreprises syndiquées et non syndiquées. L'objectif principal de cette recherche consiste à analyser la technologie utilisée par les entreprises de l'industrie du transport écolier du Québec et à évaluer les niveaux respectifs de rendements d'échelle qui les caractérisent. Nous nous appuierons, pour atteindre notre objectif, sur une méthodologie reconnue et très largement utilisée dans l'étude de la technologie des entreprises: le théorème de la dualité et l'étude des formes fonctionnelles flexibles. Le premier chapitre décrira brièvement le théorème de la dualité et présentera différentes formes fonctionnelles de la fonction de coût. La deuxième partie de ce chapitre sera consacrée à la forme fonctionnelle retenue, soit la Translog. Le manque de données disponibles, concernant les coûts d'opération de l'industrie du transport écolier du Québec, nous a obligé à concevoir et à élaborer une banque de données représentative du transport écolier au Québec. La création de cette source d'informations a exigé plus de 50 % des heures de travail allouées à cette étude. Nous présenterons dans notre deuxième chapitre l'approche d'échantillonnage utilisée ainsi que la définition de chacune des variables de notre fonction de coût. Enfin, notre dernier chapitre présentera les résultats observés et les comparera avec ceux obtenus par d'autres chercheurs. Nous terminerons notre recherche par une synthèse de nos résultats.
Resumo:
Les services écologiques sont essentiels au maintien de la vie humaine sur terre, puisqu’entre autres, ils participent à la production d’oxygène, de nourriture et de matériaux divers, régulent les cycles de l’eau et des nutriments et contribuent au bien-être humain ; ces services nous sont fournis depuis toujours, gratuitement et continuellement. Toutefois, les activités humaines compromettent de plus en plus ces services écologiques en déréglant les processus écologiques qui en sont à l’origine. Dans les paysages agricoles, les perturbations anthropiques sont connues pour affecter grandement la biodiversité et les services écologiques. L’intensification agricole ainsi que la perte et la fragmentation des habitats naturels menacent notamment les services de pollinisation, lesquels permettent la production de fruits et de graines, pour la reproduction des plantes et la consommation humaine. Cet essai évalue la perspective du service de pollinisation dans le cas précis du café en Mésoamérique. Le premier objectif de cet essai est de déterminer les enjeux écologiques, économiques et sociaux auxquels sont liés les pollinisateurs et la production durable et rentable de café. Le deuxième objectif de cet essai est d’identifier les mécanismes expliquant comment certains facteurs clés de la biodiversité et de l’aménagement peuvent augmenter les rendements du café à travers sa pollinisation par les abeilles. Le troisième objectif de cet essai est de proposer des mesures d’aménagement qui permettent d’intégrer davantage les pollinisateurs aux exploitations de café. Le quatrième et dernier objectif consiste à développer et prioriser des stratégies locales et régionales, qui puissent concilier l’application de ces mesures d’aménagement avec les réalités économiques et sociales. La revue de la littérature a permis de constater qu’en Mésoamérique, ce sont à la fois les populations d’abeilles sauvages et domestiques qui assurent la pollinisation du café. Ces insectes sont sensibles à la perturbation de leurs habitats, bien que certains soient plus tolérants que d’autres. De fait, l’aménagement local et l’aménagement régional peuvent soit bénéficier, soit nuire à la biodiversité d’abeilles et au service de pollinisation du café. Au niveau local, les systèmes agroforestiers de café, malgré de plus faibles rendements en comparaison à des monocultures intensives, sont plus résilients et maintiennent un service de pollinisation de qualité. Ils doivent donc être encouragés pour ne pas accentuer la dépendance des exploitations agricoles à des intrants externes (engrais, pesticides, herbicides, main d’œuvre supplémentaire ou mécanisation de l’agriculture) qui deviennent nécessaires pour compenser la perte des services écologiques et maintenir de hauts rendements. Au niveau régional, la forêt est essentielle au maintien de communautés de pollinisateurs abondants et riches en espèces. À l’échelle du paysage, des efforts doivent donc être investis pour préserver des habitats naturels de qualité et limiter l’isolement des exploitations de café. Cela est particulièrement vrai dans les paysages tropicaux où, contrairement aux paysages tempérés, il reste une proportion importante d’habitats naturels encore préservés. Ces habitats naturels et les terres destinées à d’autres usages (agriculture, élevage, etc.) forment une mosaïque complexe, si bien que l’aménagement du territoire soulève des enjeux majeurs aux niveaux politiques et institutionnels. Des efforts diversifiés sont donc nécessaires pour développer des solutions efficaces qui bénéficient durablement aux petits producteurs de café. Pour cela, il est essentiel que tous les membres de la chaîne de valeur du café soient des parties prenantes actives dans ces efforts. De l’échelle locale à l’échelle régionale, les producteurs, les coopératives, les gouvernements et les consommateurs ont tous une influence sur l’aménagement des paysages agricoles de café et sur les modes de vie ruraux. Bien que le rôle des insectes pollinisateurs dans l’augmentation des rendements soit reconnu, leur conservation requiert de meilleurs prix pour le café quand il est cultivé de façon respectueuse de la biodiversité, ainsi que des subventions directes pour préserver les forêts aux abords des exploitations et empêcher leur conversion en terres agricoles. À condition d’être ciblée et concertée, l’application de ces stratégies d’aménagement devrait permettre de maintenir le service de pollinisation du café en Mésoamérique.
Resumo:
Depuis que l’industrie chimique vise à rejeter de moins en moins de gaz à effet de serre, cette dernière cherche à revaloriser les différents gaz à effet de serre tel que le dioxyde de carbone. Une des techniques est de combiner le dioxyde de carbone avec de l’ammoniac pour synthétiser l’urée qui pourrait par la suite être utilisé soit directement ou soit comme intermédiaire, pour la synthèse catalytique du diméthyle carbonate (DMC). Le DMC est à la base de plusieurs applications industrielles telles que la synthèse des polymères (les polycarbonates), les réactions de trans-estérification menant à d’autres carbonates comme le diphénylcarbonate et comme agent de méthylation ou d’alkylation. Plusieurs articles provenant de la littérature scientifique rapportent que le DMC peut être utilisé comme additif oxygéné dans les carburants tels l’essence [1]. Le but de ce projet est de déterminer la viabilité industrielle de la production de DMC par la méthylation de l’urée en premier lieu en méthyle carbamate puis en DMC. La première étape de ce projet reposera donc dans un premier temps sur la confirmation des résultats rapportés au sein de la littérature ouverte pour par la suite faire une étude de l’impact des différents types de catalyseurs et des conditions expérimentales sur le rendement de la réaction. Une fois que le montage batch sera optimisé, ce dernier sera modifié pour opérer en continu. Cette modification a pour but d’augmenter le rendement et la sélectivité pour éventuellement de l’adapter industriellement. Selon la littérature, les rendements anticipés pour la réaction batch sont d’environ 30 % [2] et pour un système en continu de plus de 50 %.
Resumo:
La plus grande partie de la corrélation entre les rendements des titres individuels est bien entendu expliquée par le marché. Cependant, les chercheurs s'entendent aujourd'hui pour dire qu'il existe des sources de covariation importante en dehors du marché. Ces sources de covariation ont souvent été décrites comme des effets d'industries (Benjamin King); plus généralement, on parlera ici d'effets de groupes. On parlera d'effets de groupes pour signifier que, s'il est vrai que les titres peuvent se regrouper d'après leur covariation, nette de l'effet du marché, ils ne se regroupent pour autant pas forcément d'après la classe d'industrie dans laquelle ils sont rangés…
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
Les agents économiques tentent de maximiser le rendement des épargnes qui leurs sont confiées. Ils doivent placer et répartir ces sommes qui composeront leur portefeuille parmi les différents titres financiers disponibles (bons du Trésor, obligations, actions, options, etc.) selon des horizons de placement bien précis et selon une politique de gestion du risque appropriée. Pour maximiser le rendement total d'un portefeuille, les agents doivent analyser et interpréter l'information susceptible d'influencer les différents titres. Deux grands types d'approches les assistent dans leurs décisions: l'approche dite d'analyse technique et celle de l'analyse dite fondamentale. La première approche repose sur l'utilisation de données historiques internes au fonctionnement des marchés financiers. Elle cherche à identifier des tendances aux patterns qui pourraient servir de base à l'établissement de stratégies susceptibles de générer des rendements supérieurs, voire anormaux, par rapport aux rendements autrement possibles. Cette approche met en cause la forme faible de l'efficience des marchés. L'approche de l'analyse fondamentale consiste à analyser les caractéristiques de base de l'économie, de l'industrie, de même que les caractéristiques propres à chaque firme afin d'évaluer leurs capacités futures à générer des bénéfices. L'exercice vise à identifier des firmes sur ou sous-évaluées par les marchés financiers. En ce sens, l'analyse fondamentale peut mettre en cause les formes semiforte et forte d'efficience. […]
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de
Resumo:
Résumé : Les ions hydronium (H3O + ) sont formés, à temps courts, dans les grappes ou le long des trajectoires de la radiolyse de l'eau par des rayonnements ionisants à faible transfert d’énergie linéaire (TEL) ou à TEL élevé. Cette formation in situ de H3O + rend la région des grappes/trajectoires du rayonnement temporairement plus acide que le milieu environnant. Bien que des preuves expérimentales de l’acidité d’une grappe aient déjà été signalées, il n'y a que des informations fragmentaires quant à son ampleur et sa dépendance en temps. Dans ce travail, nous déterminons les concentrations en H3O + et les valeurs de pH correspondantes en fonction du temps à partir des rendements de H3O + calculés à l’aide de simulations Monte Carlo de la chimie intervenant dans les trajectoires. Quatre ions incidents de différents TEL ont été sélectionnés et deux modèles de grappe/trajectoire ont été utilisés : 1) un modèle de grappe isolée "sphérique" (faible TEL) et 2) un modèle de trajectoire "cylindrique" (TEL élevé). Dans tous les cas étudiés, un effet de pH acide brusque transitoire, que nous appelons un effet de "pic acide", est observé immédiatement après l’irradiation. Cet effet ne semble pas avoir été exploré dans l'eau ou un milieu cellulaire soumis à un rayonnement ionisant, en particulier à haut TEL. À cet égard, ce travail soulève des questions sur les implications possibles de cet effet en radiobiologie, dont certaines sont évoquées brièvement. Nos calculs ont ensuite été étendus à l’étude de l'influence de la température, de 25 à 350 °C, sur la formation in situ d’ions H3O + et l’effet de pic acide qui intervient à temps courts lors de la radiolyse de l’eau à faible TEL. Les résultats montrent une augmentation marquée de la réponse de pic acide à hautes températures. Comme de nombreux processus intervenant dans le cœur d’un réacteur nucléaire refroidi à l'eau dépendent de façon critique du pH, la question ici est de savoir si ces fortes variations d’acidité, même si elles sont hautement localisées et transitoires, contribuent à la corrosion et l’endommagement des matériaux.
Resumo:
L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.