40 resultados para Quantité d’énergie

em Université Laval Mémoires et thèses électroniques


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cellule utilise des nœuds d’interactions protéiques relativement stables, conservés et souvent constitués d’adaptateurs moléculaires pour gérer des signaux reçus (synthèse, sécrétion, traffic, métabolisme, division), des problèmes de sécurité et de niveaux d’énergie. Nos résultats montrent que la cellule utilise aussi des nœuds relativement petits et dynamiques où des informations propres concernant des voies métaboliques apparemment indépendantes sont évaluées. Ces informations y sont intégrées localement et une décision y est prise pour action immédiate. Cette idée est supportée par notre étude sur le récepteur de l’insuline (RI). Ce récepteur transmembranaire à activité tyrosine kinase reconnaît un signal externe (insuline circulante) et engage la signalisation de l’insuline, les réponses métaboliques et le contrôle du glucose circulant. Le RI est aussi impliqué dans l’internalisation de l’insuline et sa dégradation dans les endosomes (clairance). Il régule donc indirectement la sécrétion de l’insuline par les cellules du pancréas endocrine. La signification pathophysiologique de l’endocytose du RI ainsi que les bases moléculaires d’une telle coordination sont peu connues. Nous avons construit un réseau d’interactions du RI (IRGEN) à partir d’un protéome de fractions Golgi-endosomales (G/E) hépatiques. Nous démontrons une forte hétérogénéité fonctionnelle autour du RI avec la présence des protéines ATIC, PTPLAD1, AMPKα et ANXA2. ANXA2 est une protéine impliquée dans la biogénèse et le transport endosomal. Nos résultats identifient un site de SUMOylation régulé par l’insuline dans sa région N-terminale. ATIC est une enzyme de la voie de synthèse des purines de novo dont le substrat AICAR est un activateur de l’AMPKα. Des analyses biochimiques in vitro et in vivo nous montrent que ATIC favorise la tyrosine phosphorylation du RI par opposition fonctionnelle à PTPLAD1. Une délétion partielle d’ATIC stimule l’activation de l’AMPK dont la sous-unité AMPKα2 apparaît déterminante pour le trafic du RI. Nous démontrons que ATIC, PTPLAD1, AMPKα, AICAR et ANXA2 contrôlent l’endocytose du RI à travers le cytosquelette d’actine et le réseau de microtubules. Nous ressortons un nœud de signalisation (ATIC, PTPLAD1, AMPKα) capable de détecter les niveaux d’activation du RI, d’énergie cellulaires (rapports AMP/ATP) et aussi d’agir sur la signalisation et l’endocytose du RI. Cette proximité moléculaire expliquerait le débat sur le mécanisme primaire du diabète de type 2 (DT2), notamment entre la sensibilité à l’insuline et sa clairance. Nous avons calculé un enrichissement de 61% de variants communs du DT2 parmi les protéines fonctionnellement proches du RI incluant RI, ATIC, AMPKα, KIF5A et GLUT2. Cet enrichissement suggère que l’hétérogénéité génétique révélée par les consortiums sur études génomiques (GWAS) converge vers des mécanismes peu étudiés de biologie cellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est le fruit d’une réflexion portant sur la pulsion qui m’habite de sans cesse créer de nouveaux objets, ainsi que sur les rapports que j’entretiens avec mes objets d’art et les objets manufacturés qui nous entourent. Elle s’est construite peu à peu, dans un aller-retour entre production à l’atelier et retour critique. Au cours des deux dernières années, j’ai cherché, par l’entremise de sculptures et d’œuvres installatives, à comprendre ma fascination pour le fait de vivre dans une société dont l’activité fondamentale semble être une transformation constante d’énergie et de matière. Dans un premier temps, j’y dresse plusieurs constats relatifs à mon positionnement comme artiste face aux différents discours sur l’art. Essentiellement, je développe l’idée que je n’ai pas besoin de régler le cas de l’art, d’un point de vue théorique, pour faire de l’art. Dans la seconde partie, je réfléchis sur différentes caractéristiques de ma démarche : le fait que je cherche à créer des objets qui s’insèrent et se comportent dans le réel comme des anomalies, que ma démarche est perméable à tout ce qui constitue mon expérience de vie, ou encore que j’active en manipulant de façon intuitive du matériel chargé de significations multiples. Dans un troisième temps, je présente la nature de l’imaginaire qui m’habite et explique la façon dont ce dernier influence ma manière de faire de l’art et la morphologie de mes œuvres. Vient ensuite un chapitre dans lequel je me penche sur mon passé de designer industriel et de musicien, dans lequel j’illustre la façon dont ces deux expériences de création, bien que fort différentes de l’art contemporain, influencent ma pratique actuelle. Finalement, je ferai une représentation schématisée des concepts, des méthodes et des dynamiques à l’œuvre dans mon processus créatif. Cette multitude de regards différents sur ma pratique permettra de faire ressortir, tout au long de ce mémoire, que ma démarche est nourrie par une série de tensions que je cherche à réconcilier, sans vraiment y parvenir, et que c’est cette impossibilité qui me pousse constamment à créer des nouvelles œuvres. Bien que mes œuvres soient souvent interprétées comme des commentaires sur l’actualité, le présent mémoire n’a pas comme point central l’actualité, mais bien mon travail de création, la façon dont il fonctionne, ce à quoi il est relié, etc. Je ne me pose pas la question « pourquoi et comment transformons-nous l’énergie et la matière? », mais plutôt « comment puis-je transformer le monde en transformant autrement l’énergie et la matière? »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de travail est divisé en deux études principales: (a) l’influence des certains additifs organiques sur la consommation d’énergie et la pureté du métal de zinc déposé dans le processus d’extraction électrolytique, et (b) l’électrodéposition des alliages binaires et ternaires de Fe-Mo et Fe-Mo-P sur des substrats d’acier doux afin d’agir comme cathodes pour la production de chlorate. (a) Parmi les sept différents additifs organiques examinés, les sels des liquides ioniques ont réussi à augmenter le rendement du courant jusqu’à 95,1% comparé à 88,7% qui a obtenu à partir de l’électrolyte standard en présence des ions de Sb3+. La réduction maximale de la consommation d’énergie de ~173 kWh tonne-1 a été obtenue en ajoutant de 3 mg dm-3 du chlorure de 1-butyl-3-méthylimidazolium dans le même électrolyte. La teneur en plomb dans le dépôt de zinc est réduite de 26,5 ppm à 5,1-5,6 ppm en utilisant les sels des liquides ioniques. (b) Des différents binaires Fe-Mo et ternaires Fe-Mo-P alliages ont été électrodéposés sur des substrats d’acier doux. Les alliages préparés ont une tenure en Mo entre 21-47 at.% et une tenure en P de 0 à 16 at.%. L’activité électrocatalytique de ces alliages vers la réaction de dégagement d’hydrogène (RDH) a été étudiée dans des solutions de chlorure de sodium. La réduction maximale de la surtension de RDH de ~313 mV a été obtenue par l’alliage ternaire préparé Fe54Mo30P16 par rapport à celle obtenue pour l’acier doux. La rugosité de surface et l’activité intrinsèque des revêtements de Fe-Mo-P peuvent être l’origine du comportement prometteur de ces électrocatalyseurs vers la RDH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l’oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d’eau et d’oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l’acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d’abord, la fiabilité de l’approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST,% en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu’une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d’être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d’autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d’oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l’expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d’oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d’évaluer quantitativement le potentiel d’oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d’oxygène dans la partie supérieure d’un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d’oxydation. Des paramètres optimisés pour évaluer le potentiel d’oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d’épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d’oxygène consommé. Finalement, un protocole d’évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d’oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d’un plus large éventail de granulats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’effet du risque de prix sur la décision des agriculteurs et les transformateurs québécois. Elle se divise en trois chapitres. Le premier chapitre revient sur la littérature. Le deuxième chapitre examine l’effet du risque de prix sur la production de trois produits, à savoir le maïs grain, la viande de porc et la viande d’agneau dans la province Québec. Le dernier chapitre est centré sur l’analyse de changement des préférences du transformateur québécois de porc pour ce qui est du choix de marché. Le premier chapitre vise à montrer l’importance de l’effet du risque du prix sur la quantité produite par les agriculteurs, tel que mis en évidence par la littérature. En effet, la littérature révèle l’importance du risque de prix à l’exportation sur le commerce international. Le deuxième chapitre est consacré à l’étude des facteurs du risque (les anticipations des prix et la volatilité des prix) dans la fonction de l’offre. Un modèle d’hétéroscédasticité conditionnelle autorégressive généralisée (GARCH) est utilisé afin de modéliser ces facteurs du risque. Les paramètres du modèle sont estimés par la méthode de l’Information Complète Maximum Vraisemblance (FIML). Les résultats empiriques montrent l’effet négatif de la volatilité du prix sur la production alors que la prévisibilité des prix a un effet positif sur la quantité produite. Comme attendu, nous constatons que l’application du programme d’assurance-stabilisation des revenus agricoles (ASRA) au Québec induit une plus importante sensibilité de l’offre par rapport au prix effectif (le prix incluant la compensation de l’ASRA) que par rapport au prix du marché. Par ailleurs, l’offre est moins sensible au prix des intrants qu’au prix de l’output. La diminution de l’aversion au risque de producteur est une autre conséquence de l’application de ce programme. En outre, l’estimation de la prime marginale relative au risque révèle que le producteur du maïs est le producteur le moins averse au risque (comparativement à celui de porc ou d’agneau). Le troisième chapitre consiste en l’analyse du changement de préférence du transformateur québécois du porc pour ce qui est du choix de marché. Nous supposons que le transformateur a la possibilité de fournir les produits sur deux marchés : étranger et local. Le modèle théorique explique l’offre relative comme étant une fonction à la fois d’anticipation relative et de volatilité relative des prix. Ainsi, ce modèle révèle que la sensibilité de l’offre relative par rapport à la volatilité relative de prix dépend de deux facteurs : d’une part, la part de l’exportation dans la production totale et d’autre part, l’élasticité de substitution entre les deux marchés. Un modèle à correction d’erreurs est utilisé lors d’estimation des paramètres du modèle. Les résultats montrent l’effet positif et significatif de l’anticipation relative du prix sur l’offre relative à court terme. Ces résultats montrent donc qu’une hausse de la volatilité du prix sur le marché étranger par rapport à celle sur le marché local entraine une baisse de l’offre relative sur le marché étranger à long terme. De plus, selon les résultats, les marchés étranger et local sont plus substituables à long terme qu’à court terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats d’études récentes suggèrent que certains comportements de soutien des mentors pourraient augmenter les bénéfices du mentorat scolaire. Cependant, peu d’outils validés sont disponibles dans la littérature pour mesurer ces comportements. Il est aussi convenu que l’efficacité du mentorat scolaire dépend de la qualité de la relation tissée entre le mentor et son protégé, laquelle serait tributaire d’un ensemble de facteurs, dont les comportements du mentor. Néanmoins, encore une fois très peu d’études empiriques ont tenté d’identifier les patrons de comportements des mentors les plus susceptibles d’influencer la relation de mentorat et l’ajustement des protégés. La présente thèse poursuit deux objectifs, soit de construire et valider un outil de mesure des comportements de soutien des mentors oeuvrant en contexte de mentorat scolaire, puis d’explorer les liens entre des comportements de structure et de soutien des mentors, la relation de mentorat et l’ajustement des protégés. L’échelle de comportements des mentors (ECM) a été développée en s’inspirant des prémisses du modèle sociomotivationnel du mentorat (Larose & Tarabulsy, 2014). Deux cent cinquante-trois étudiants du collégial participant à un programme de mentorat scolaire d’une durée de huit mois ont complété une version expérimentale de l’ECM ainsi que différentes mesures de la qualité de la relation de mentorat à deux temps de leur participation au programme. Les résultats montrent que le questionnaire possède de bons coefficients de cohérence interne et une structure factorielle adéquate, à l’exception du facteur soutien à l’autonomie. De plus, trois des dimensions de l’ECM prédisent la qualité de la relation de mentorat et la perception d’utilité de l’intervention. Des recommandations pour l’utilisation et l’amélioration de l’ECM sont proposées. Sur la base des évaluations des protégés à l’ECM (Brodeur et al., 2015), quatre regroupements distincts de comportements de mentors ont été identifiés : Optimal, Suffisant, Contrôlant, et Inadéquat. Les résultats montrent que plus les mentors ont fait preuve de soutien et de structure, plus les protégés ont évalué positivement la relation et l’utilité du mentorat, sauf pour les profils Optimal et Contrôlant. Par ailleurs, uniquement l’ajustement social des protégés a différé du groupe contrôle, et ce proportionnellement à la quantité de soutien et de structure prodigués par les mentors. D’autre part, il est discuté de l’impact de l’ajustement initial des protégés sur les comportements des mentors. Des implications théoriques et pratiques des résultats des deux articles sont présentées. Mots-clés : mentorat scolaire, comportements des mentors, validation de questionnaire, qualité de la relation de mentorat, ajustement des protégés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un enjeu actuel en biotechnologie est d’obtenir des plantes haploïdes doublées par la technique de la culture de microspores isolées (CMI). Pourtant, la CMI génère parfois une proportion importante de plantes albinos, laquelle peut atteindre 100 % chez certains cultivars. Des travaux antérieurs ont indiqué que des remaniements du génome chloroplastique seraient à l’origine de cet albinisme. Afin de mieux comprendre ce processus menant à l’albinisme, nous avons entrepris d’étudier l’intégrité du génome chloroplastique au sein de microspores d’orge et de plantes albinos via une approche de séquençage à grande échelle. L’ADN total extrait de microspores à un stade précoce de la CMI, d’une feuille de la plante-mère (témoin), et de feuilles albinos, a été séquencé et les séquences chloroplastiques ont été analysées. Ceci nous a permis de documenter pour la première fois une diminution de l’ADN chloroplastique chez les microspores. De plus une étude de variations structurales a démontré un abaissement généralisé de la quantité de génomes chloroplastiques chez les microspores. Enfin, d’importants remaniements du génome chloroplastique ont été observés chez les plantes albinos, révélant une forte abondance de génomes chloroplastiques altérés de forme linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte où l’utilisation d’un antibiotique provoque une hausse de la résistance bactérienne, ce mémoire évalue théoriquement et grâce à la simulation numérique, de quelle façon un monopoleur maximize son profit, à la suite de l’obtention d’un brevet. Du point de vue théorique, le monopoleur souhaite d’une part maximiser son profit à chaque instant et de l’autre maximiser son profit tout au long de la durée de vie de son brevet. À l’aide de la simulation numérique, la valorisation faite par le monopoleur de son antibiotique s’avère être le point central de l’analyse, de sorte que si la valorisation faite par le monopoleur est élevée, le monopoleur conserve l’efficacité de son antibiotique en diminuant la quantité produite. Dans le cas contraire, le monopoleur produira une plus grande quantité et conservera une moins grande efficacité de son antibiotique.