19 resultados para cot
em Université Laval Mémoires et thèses électroniques
Resumo:
Ce projet visait à comparer les effets agronomiques d’une serre de tomates biologiques semi-fermée utilisant un système de climatisation par géothermie comparativement à une serre ouverte. Deux serres de 228 et 230 m2 ont été équipées d’un système d’échangeur d’air avec géothermie qui refroidissait et déshumidifiait l’air (serre semi-fermée) et d’un système de ventilation naturelle (serre témoin). Ces dernières ont été comparées au cours des années 2012 et 2013 entre lesquels les traitements ont été permutés. Les variables mesurées étaient les paramètres de croissance des plants ainsi que le rendement, le calibre des fruits et les propriétés physico-chimiques des tomates. Les résultats ont démontré que le système de climatisation n’a pas eu d’effets significatifs sur la croissance des plants, la qualité des fruits ainsi que le rendement. Les deux serres avaient des cibles de concentration en CO2 comprises entre 450 µL L-1 et 1000 µL L-1 selon l’ensoleillement. Les quantités de CO2 injectées ont été de 11 kg/m2 et 15 kg/m2 respectivement en 2012 et 2013 dans la serre semi-fermée alors qu’elles ont été de 24 kg/m2 et 25 kg/m2 dans la serre témoin. Bien qu’ayant nécessité moins d’injection, la serre semi-fermée a permis de conserver des concentrations en CO2 de 638 µL L-1 en 2012 et de 593 µL L-1 en 2013. Ces concentrations sont plus élevées que celles obtenues dans la serre témoin qui étaient respectivement de 385 µL L-1 et 486 µL L-1 en 2012 et 2013. De ce fait, le coût monétaire associé à l’enrichissement carboné a été de 1,6 à 2,0 fois plus élevé dans la serre témoin que dans la serre semi-fermée.
Resumo:
Depuis longtemps, le Soleil est vu comme une source renouvelable d’intérêt pour combler nos besoins en énergie. Or, le coût prohibitif de l’énergie solaire a jusqu’à maintenant rendu celle-ci peu utilisée. Pour accroître son adoption, il faut absolument rendre son coût concurrentiel avec celui des énergies fossiles. Pour cela, plusieurs possibilités existent. L’une d’elles est l’utilisation d’un système optique pour concentrer la lumière. Cette thèse présente donc une solution basée sur la conception d’un nouveau type de concentrateur solaire de basse-moyenne concentration fait de polymère dans le but de réduire son coût de fabrication. Les performances de ce système compact utilisant des microlentilles ont ensuite été améliorées par l’ajout d’un gradient d’indice de réfraction dans la matrice polymérique. Une analyse sommaire du coût de l’énergie produite par de tels dispositifs permet ensuite de conclure que les systèmes développés dans le cadre de ce projet de recherche ont un potentiel commercial. Pour cette raison, le concept le plus prometteur basé sur l’utilisation d’un gradient d’indice afin d’accroître les performances a fait état du dépôt d’une demande de brevet.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Cette thèse examine l’investissement en capital humain au Canada en s’intéressant à la contribution de l’aide financière aux études, aux effets de la fiscalité, à la rentabilité de l’investissement en éducation postsécondaire et à la redistribution des revenus. Elle est subdivisée en cinq chapitres. Le premier chapitre présente une révue chronologique des études microéconomiques sur l’investissement en capital humain. Il présente également une synthèse des études canadiennes sur l’investissement en capital humain en insistant sur les limites portant essentiellement sur la non prise en compte de l’hétérogénéité des systèmes de prêts et bourses et des systèmes fiscaux à travers les provinces canadiennes et la faible analyse de la répartition des coûts et bénéfices de l’investissement en éducation au Canada. Le second chapitre présente la méthodologie de mesure des rendements de l’éducation et des gains issus des investissements en éducation. Il décrit les données utilisées et les résultats des régressions économetriques. Finalement, le chapitre présente SIMAID, un calculateur d’aide financière aux études élaboré pour les objectifs dans cette thèse et qui permet d’estimer le montant de l’aide financière devant être attribuée à chaque étudiant en fonction de ses caractéristiques personnelles et de celles de sa famille. Dans sa première section, le troisième chapitre présente les rendements sociaux, privés et publics de l’éducation et montre que les rendements de l’éducation varient selon les provinces, les filières de formation, le genre et les cohortes d’année de naissance et décroient avec le niveau d’éducation. Dans sa seconde section, le chapitre montre que l’aide financière aux études accroît le rendement des études du baccalauréat de 24.3% et 9.5% respectivement au Québec et en Ontario. Finalement, le chapitre indique qu’un changement du système d’aide financière aux études de Québec par celui de l’Ontario entraîne une baisse de 11.9% du rendement des études au baccalauréat alors qu’un changement du système fiscal québécois par celui ontarien entraine une hausse du rendement du baccalauréat de 4.5%. L’effet combiné du changement des systèmes d’aide financière et fiscal est une baisse du rendement du baccalauréat de 7.4%. Le quatrième chapitre fournit une décomposition comptable détaillée des gains sociaux, privés et publics des investissements en éducation. Le gain social de l’investissement au baccalauréat est de $738 384 au Québec et de $685 437 en Ontario. Ce gain varie selon les filières de formation avec un niveau minimal pour les études humanitaires et un niveau maximal pour les études en ingénierie. Le chapitre montre également que la répartition des bénéfices et des coûts de l’investissement en éducation entre les individus et le gouvernement est plus équitable en Ontario qu’à Québec. En effet, un individu qui investit à Québec supporte 51.6% du coût total et engrange 64.8% des gains alors que le même individu supporterait 62.9% des coûts sociaux et engrangerait 62.2% des gains en Ontario. Finalement, le cinquième chapitre présente et analyse les effets rédistributifs des transferts et des taxes suite à un investissement en éducation. Il examine aussi si l’aide financière aux études est effectivement allouée aux personnes les plus pauvres. L’argument selon lequel l’aide financière est destinée aux plus pauvres est rejeté en analysant la distribution du revenu permanent. En effet, il ressort que 79% des personnes bénéficiant de l’aide financière aux études se trouvent dans le cinquième quintile de la distribution des revenus permanents. Le chapitre montre également que l’investissement en éducation impacte positivement les effets rédistributifs en 2006, 2001 et 1996 et négativement en 1991 et 2011. L’impact est également perceptible sur les composantes de l’effet rédistributif. Toutefois, la sensibilité de l’impact au taux d’actualisation dépend de l’indice utilisé dans l’analyse.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Les caractéristiques physiques d’un site de nidification peuvent influencer la probabilité qu’il soit utilisé et l’issue des tentatives de nidification. La buse pattue (Buteo lagopus) construit un imposant nid, qui peut être réutilisé plusieurs années, en bordure des falaises et des versants en Arctique. Ces habitats escarpés sont perturbés par des mouvements de masse pouvant entraîner la destruction de sites critiques pour la reproduction des buses. Nous avons d’abord examiné l’effet de plusieurs variables environnementales et de la réutilisation d’un nid sur la reproduction de la buse pattue. Ensuite, nous avons évalué la vulnérabilité des nids aux mouvements de masse et identifié les facteurs environnementaux associés à la persistance des nids. L’étude s’est déroulée à l’île Bylot (Nunavut) de 2007 à 2015. La probabilité qu’un nid soit utilisé par un couple augmentait avec la distance du nid actif le plus proche, la présence d’un surplomb au-dessus du nid et la densité des lemmings. Les nids accessibles aux renards et orientés vers le nord étaient associés à un moins bon succès reproducteur. Celui-ci était aussi positivement relié à la densité estivale de lemmings et négativement relié aux précipitations. Nos résultats suggèrent que les caractéristiques physiques du site de nidification offrant un microclimat favorable et une protection contre les prédateurs reflètent des sites de haute qualité. Le succès reproducteur était similaire entre les nouveaux nids et ceux préexistants, suggérant que la construction d’un nid n’entraîne pas de coût sur la reproduction à court terme. Parmi les 82 nids connus, près du tiers ont été détruits par des mouvements de masse et parmi ceux encore intacts, la majorité sont à risque modéré et haut de l’être. La probabilité de destruction était élevée pour les nids construits sur des sédiments non consolidés et positivement associée aux fortes précipitations. La hausse anticipée des précipitations due aux changements climatiques est susceptible d’augmenter la vulnérabilité des nids aux mouvements de masse ce qui pourrait ultimement réduire la disponibilité de sites appropriés pour la reproduction de ce rapace.
Resumo:
Pour ce projet, nous avons développé une plateforme pour l’analyse pangénomique de la méthylation de l’ADN chez le bovin qui est compatible avec des échantillons de petites tailles. Cet outil est utilisé pour étudier les caractéristiques génétiques et épigénétiques (méthylation de l’ADN) des gamètes soumis aux procédures de procréation médicalement assisitée et des embryons précoces. Dans un premier temps, une plateforme d’analyse de biopuces spécifiques pour l’étude de la méthylation de l’ADN chez l’espèce bovine a été développée. Cette plateforme a ensuite été optimisée pour produire des analyses pangénomiques de méthylation de l’ADN fiables et reproductibles à partir d’échantillons de très petites tailles telle que les embryons précoces (≥ 10 ng d’ADN a été utilisé, ce qui correspond à 10 blastocystes en expansion). En outre, cet outil a permis d’évaluer de façon simultanée la méthylation de l’ADN et le transcriptome dans le même échantillon, fournissant ainsi une image complète des profils génétiques et épigénétiques (méthylation de l’ADN). Comme preuve de concept, les profils comparatifs de méthylation de l’ADN spermatique et de blastocystes bovins ont été analysés au niveau de l’ensemble du génome. Dans un deuxième temps, grâce à cette plateforme, les profils globaux de méthylation de l’ADN de taureaux jumeaux monozygotes (MZ) ont été analysés. Malgré qu’ils sont génétiquement identiques, les taureaux jumeaux MZ ont des descendants avec des performances différentes. Par conséquent, l’hypothèse que le profil de méthylation de l’ADN spermatique de taureaux jumeaux MZ est différent a été émise. Dans notre étude, des différences significatives entre les jumeaux MZ au niveau des caractéristiques de la semence ainsi que de la méthylation de l’ADN ont été trouvées, chacune pouvant contribuer à l’obtention de performances divergentes incongrues des filles engendrées par ces jumeaux MZ. Dans la troisième partie de ce projet, la même plateforme a été utilisée pour découvrir les impacts d’une supplémentation à forte concentration en donneur de méthyle universel sur les embryons précoces bovins. La supplémentation avec de grandes quantités d’acide folique (AF) a été largement utilisée et recommandée chez les femmes enceintes pour sa capacité bien établie à prévenir les malformations du tube neural chez les enfants. Cependant, plus récemment, plusieurs études ont rapporté des effets indésirables de l’AF utilisé à des concentrations élevées, non seulement sur le développement de l’embryon, mais aussi chez les adultes. Au niveau cellulaire, l’AF entre dans le métabolisme monocarboné, la seule voie de production de S-adénosyl méthionine (SAM), un donneur universel de groupements méthyles pour une grande variété de biomolécules, y compris l’ADN. Par conséquent, pour résoudre cette controverse, une forte dose de SAM a été utilisée pour traiter des embryons produits in vitro chez le bovin. Ceci a non seulement permis d’influencer le phénotype des embryons précoces, mais aussi d’avoir un impact sur le transcriptome et le méthylome de l’ADN. En somme, le projet en cours a permis le développement d’une plateforme d’analyse de la méthylation de l’ADN à l’échelle du génome entier chez le bovin à coût raisonnable et facile à utiliser qui est compatible avec les embryons précoces. De plus, puisque c’est l’une des premières études de ce genre en biologie de la reproduction bovine, ce projet avait trois objectifs qui a donné plusieurs nouveaux résultats, incluant les profils comparatifs de méthylation de l’ADN au niveau : i) blastocystes versus spermatozoïdes ; ii) semence de taureaux jumeaux MZ et iii) embryons précoces traités à de fortes doses de SAM versus des embryons précoces non traités.
Resumo:
Au cours des dernières années, la photonique intégrée sur silicium a progressé rapidement. Les modulateurs issus de cette technologie présentent des caractéristiques potentiellement intéressantes pour les systèmes de communication à courte portée. En effet, il est prévu que ces modulateurs pourront être opérés à des vitesses de transmission élevées, tout en limitant le coût de fabrication et la consommation de puissance. Parallèlement, la modulation d’amplitude multi-niveau (PAM) est prometteuse pour ce type de systèmes. Ainsi, ce travail porte sur le développement de modulateurs de silicium pour la transmission de signaux PAM. Dans le premier chapitre, les concepts théoriques nécessaires à la conception de modulateurs de silicium sont présentés. Les modulateurs Mach-Zehnder et les modulateurs à base de réseau de Bragg sont principalement abordés. De plus, les effets électro-optiques dans le silicium, la modulation PAM, les différents types d’électrodes intégrées et la compensation des distorsions par traitement du signal sont détaillés.Dans le deuxième chapitre, un modulateur Mach-Zehnder aux électrodes segmentées est présenté. La segmentation des électrodes permet la génération de signaux optiques PAM à partir de séquences binaires. Cette approche permet d’éliminer l’utilisation de convertisseur numérique-analogique en intégrant cette fonction dans le domaine optique, ce qui vise à réduire le coût du système de communication. Ce chapitre contient la description détaillée du modulateur, les résultats de caractérisation optique et de la caractérisation électrique, ainsi que les tests systèmes. De plus, les tests systèmes incluent l’utilisation de pré-compensation ou de post-compensation du signal sous la forme d’égalisation de la réponse en fréquence pour les formats de modulation PAM-4 et PAM-8 à différents taux binaires. Une vitesse de transmission de 30 Gb/s est démontrée dans les deux cas et ce malgré une limitation importante de la réponse en fréquence suite à l’ajout d’un assemblage des circuits radiofréquences (largeur de bande 3 dB de 8 GHz). Il s’agit de la première démonstration de modulation PAM-8 à l’aide d’un modulateur Mach-Zehnder aux électrodes segmentées. Finalement, les conclusions tirées de ce travail ont mené à la conception d’un deuxième modulateur Mach-Zehnder aux électrodes segmentées présentement en phase de test, dont les performances montrent un très grand potentiel. Dans le troisième chapitre, un modulateur à réseau de Bragg à deux sauts de phase est présenté. L’utilisation de réseaux de Bragg est une approche encore peu développée pour la modulation. En effet, la réponse spectrale de ces structures peut être contrôlée précisément, une caractéristique intéressante pour la conception de modulateurs. Dans ces travaux, nous proposons l’ajout de deux sauts de phase à un réseau de Bragg uniforme pour obtenir un pic de transmission dans la bande de réflexion de celui-ci. Ainsi, il est possible d’altérer l’amplitude du pic de transmission à l’aide d’une jonction pn. Comme pour le deuxième chapitre, ce chapitre inclut la description détaillée du modulateur, les résultats des caractérisations optique et électrique, ainsi que les tests systèmes. De plus, la caractérisation de jonctions pn à l’aide du modulateur à réseau de Bragg est expliquée. Des vitesses de transmission PAM-4 de 60 Gb/s et OOK de 55 Gb/s sont démontrées après la compensation des distorsions des signaux. À notre connaissance, il s’agit du modulateur à réseau de Bragg le plus rapide à ce jour. De plus, pour la première fois, les performances d’un tel modulateur s’approchent de celles des modulateurs de silicium les plus rapides utilisant des microrésonateurs en anneau ou des interféromètres Mach-Zehnder.
Resumo:
Face à la diminution des ressources énergétiques et à l’augmentation de la pollution des énergies fossiles, de très nombreuses recherches sont actuellement menées pour produire de l’énergie propre et durable et pour réduire l’utilisation des sources d’énergies fossiles caractérisées par leur production intrinsèque des gaz à effet de serre. La pile à combustible à membrane échangeuse de protons (PEMFC) est une technologie qui prend de plus en plus d’ampleur pour produire l’énergie qui s’inscrit dans un contexte de développement durable. La PEMFC est un dispositif électrochimique qui fonctionne selon le principe inverse de l’électrolyse de l’eau. Elle convertit l’énergie de la réaction chimique entre l’hydrogène et l’oxygène (ou l’air) en puissance électrique, chaleur et eau; son seul rejet dans l’atmosphère est de la vapeur d’eau. Une pile de type PEMFC est constituée d’un empilement Électrode-Membrane-Électrode (EME) où la membrane consiste en un électrolyte polymère solide séparant les deux électrodes (l’anode et la cathode). Cet ensemble est intégré entre deux plaques bipolaires (BP) qui permettent de collecter le courant électrique et de distribuer les gaz grâce à des chemins de circulation gravés sur chacune de ses deux faces. La plupart des recherches focalisent sur la PEMFC afin d’améliorer ses performances électriques et sa durabilité et aussi de réduire son coût de production. Ces recherches portent sur le développement et la caractérisation des divers éléments de ce type de pile; y compris les éléments les plus coûteux et les plus massifs, tels que les plaques bipolaires. La conception de ces plaques doit tenir compte de plusieurs paramètres : elles doivent posséder une bonne perméabilité aux gaz et doivent combiner les propriétés de résistance mécanique, de stabilité chimique et thermique ainsi qu’une conductivité électrique élevée. Elles doivent aussi permettre d’évacuer adéquatement la chaleur générée dans le cœur de la cellule. Les plaques bipolaires métalliques sont pénalisées par leur faible résistance à la corrosion et celles en graphite sont fragiles et leur coût de fabrication est élevé (dû aux phases d’usinage des canaux de cheminement des gaz). C’est pourquoi de nombreuses recherches sont orientées vers le développement d’un nouveau concept de plaques bipolaires. La voie la plus prometteuse est de remplacer les matériaux métalliques et le graphite par des composites à matrice polymère. Les plaques bipolaires composites apparaissent attrayantes en raison de leur facilité de mise en œuvre et leur faible coût de production mais nécessitent une amélioration de leurs propriétés électriques et mécaniques, d’où l’objectif principal de cette thèse dans laquelle on propose: i) un matériau nanocomposite développé par extrusion bi-vis qui est à base de polymères chargés d’additifs solides conducteurs, incluant des nanotubes de carbone. ii) fabriquer un prototype de plaque bipolaire à partir de ces matériaux en utilisant le procédé de compression à chaud avec un refroidissement contrôlé. Dans ce projet, deux polymères thermoplastiques ont été utilisés, le polyfluorure de vinylidène (PVDF) et le polyéthylène téréphtalate (PET). Les charges électriquement conductrices sélectionnées sont: le noir de carbone, le graphite et les nanotubes de carbones. La combinaison de ces charges conductrices a été aussi étudiée visant à obtenir des formulations optimisées. La conductivité électrique à travers l’épaisseur des échantillons développés ainsi que leurs propriétés mécaniques ont été soigneusement caractérisées. Les résultats ont montré que non seulement la combinaison entre les charges conductrices influence les propriétés électriques et mécaniques des prototypes développés, mais aussi la distribution de ces charges (qui de son côté dépend de leur nature, leur taille et leurs propriétés de surface), avait aidé à améliorer les propriétés visées. Il a été observé que le traitement de surface des nanotubes de carbone avait aidé à l’amélioration de la conductivité électrique et la résistance mécanique des prototypes. Le taux de cristallinité généré durant le procédé de moulage par compression des prototypes de plaques bipolaires ainsi que la cinétique de cristallisation jouent un rôle important pour l’optimisation des propriétés électriques et mécaniques visées.
Resumo:
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes.
Resumo:
L’électronique organique suscite un intérêt grandissant en recherche grâce aux nouvelles possibilités qu’elle offre pour faciliter l’intégration de dispositifs électroniques dans nos vies. Grâce à elle, il est possible d’envisager des produits légers, flexibles et peu coûteux à produire. Les classes majeures de dispositifs étudiées sont les cellules photovoltaïques organiques (CPO) et les transistors organiques à effet de champ (TOEC). Dans les dernières années, une attention particulière a été portée sur les méthodes de polymérisation des matériaux organiques entrant dans la fabrication de ces dispositifs. La polymérisation par (hétéro)arylation directe (PHAD) catalysée au Pd offre une synthèse sans dérivé organométallique utilisant simplement un lien C-H aromatique, ce qui facilite la purification, diminue le nombre d’étapes et rend possible la production de matériaux à plus faible coût. De plus, la PHAD permet la préparation de matériaux qui était difficile, voire impossible, à obtenir auparavant. Cependant, l’inconvénient majeur de la PHAD reste sa limitation à certaines classes de polymères possédant des monomères ayant des positions bloquées favorisant qu’une seule paire de liaisons C-H. Dans le cadre de ces travaux de doctorat, l’objectif général est d’étudier la polymérisation par PHAD afin d’accéder à des classes de monomères qui n’étaient pas envisageables auparavant et à étendre l’application de cet outil dans le domaine des polymères conjugués. Plus spécifiquement, nous avons étudié l’utilisation de groupements protecteurs et partants sur des unités de benzodithiophènes et de bithiophène-silylés. Suivant ces résultats, nos travaux ont porté sur la polymérisation de dérivés de bithiophènes avec des bromo(aryle)s, une classe de polymères fréquemment utilisée en électronique organique mais qui était jugée impossible à polymériser par PHAD auparavant. Cette étude a montré l’importance de contrôler la PHAD afin d’obtenir le polymère souhaité. Finalement, nous avons étudié l’effet du système catalytique sur le taux de β−ramifications lors de la synthèse de polymères à base de thiophènes. Dans cette dernière étude, nous avons démontré l’importance d’utiliser des outils de caractérisation adéquats afin de confirmer la qualité des polymères obtenus.
Resumo:
L’objectif principal de cette maîtrise était de développer des formulations d’épices capables de remplacer les nitrites et nitrates dans les produits carnés tout en gardant la même durée de conservation que ces derniers ainsi que leurs propriétés organoleptiques, antibactériennes et antioxydantes. Un criblage qualitatif puis quantitatif des épices a été réalisé et trois épices ont été sélectionnées, les clous de girofle, le cumin et la cannelle. Puis, des poudres de fruits ont été testées pour approcher la couleur rosée que donnent les échantillons contenant les nitrites. L’analyse sensorielle effectuée par la suite a fait ressortir le caractère sucré de la poudre de fruit et des propriétés très intéressantes de certaines formulations par rapport à l’ajout des nitrites. Enfin, une analyse technico-économique a été réalisée et a montré une très faible augmentation du coût de production des produits carnés en utilisant nos formulations d’épices et de poudre de fruit.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.