558 resultados para Courbe de coûts
Resumo:
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.
Resumo:
Notre équipe a identifié le thé Labrador [Rhododendron groenlandicum L. (Ericaceae)] comme une plante potentiellement antidiabétique de la pharmacopée traditionnelle des Cris de la Baie James orientale. Dans la présente étude, nous avons évalué les effets néphroprotecteurs potentiels de la plante. De la microalbuminurie et de la fibrose rénale ont été développées chez des souris alimentées avec une diète grasse (DG). Le R. groenlandicum améliore d’une façon non-significative la microalbuminurie, avec des valeurs de l’aire sous la courbe (ACR) diminuant de 0.69 à 0.53. La valeur de la fibrose rénale qui était, à l’origine, de 4.85 unités arbitraires (UA) dans des souris alimentées à la DG, a chuté à 3.27 UA après avoir reçu un traitement de R. groenlandicum. Le R. groenlandicum a réduit la stéatose rénale de presque la moitié alors que l’expression du facteur de modification Bcl-2 (Bmf) a chuté de 13.96 UA à 9.43 UA. Dans leur ensemble les résultats suggèrent que le traitement avec R. groenlandicum peut améliorer la fonction rénale altérée par DG. Dans l’étude subséquente, notre équipe a identifié 17 espèces de la forêt boréale, de la pharmacopée traditionnelle des Cris de la Baie James orientale, qui ont présenté des activités biologiques prometteuses in vitro et in vivo dans le contexte du DT2. Nous avons maintenant examiné ces 17 extraits afin d’identifier lesquels possèdent un potentiel cytoprotecteur rénale en utilisant des cellules Madin Darby Canine Kidney (MDCK) mises à l’épreuve dans un médium hypertonique. Nous concluons que plusieurs plantes antidiabétiques Cris exercent une activité de protection rénale qui pourrait être pertinente dans le contexte de la néphropathie diabétique (ND) qui affecte une proportion importante des Cris. La G. hispidula et la A. balsamea sont parmi les plantes les plus puissantes dans ce contexte et elles semblent protectrices principalement en inhibant la caspase 9 dans la voie de signalisation apoptotique mitochondriale. Finalement, nous avons utilisé une approche de fractionnement guidée par un test biologique pour identifier les fractions actives et les composés de A. balsamea avec un potentiel de protection rénale in vitro dans des cellules MDCK mises au défi avec un médium hypertonique. La fraction d’hexane (Hex) possède le potentiel le plus élevé parmi toutes les fractions de solvant contre les dommages cellulaires induits par le stress hypertonique. Dans des études précédentes, trois composés purs ont été identifiés à partir de la fraction Hex, à savoir, l’acide abiétique, l’acide déhydroabiétique et le squalène. L’acide abiétique se distinguait par son effet puissant dans le maintien de la viabilité des cellules MDCK (AnnV-/PI-) à un niveau relativement élevé (augmentation de 25.48% relative au stress hypertonique, P<0.0001), ainsi qu’une réduction significative (diminution de 20.20% par rapport au stress hypertonique, P<0.0001) de l’apoptose de stade précoce (AnnV+/PI-). L’acide abiétique peut donc servir à normaliser les préparations traditionnelles d’A. balsamea et à trouver des applications potentielles dans le traitement de la néphropathie diabétique. Les trois études ont été intrinsèquement liées les unes aux autres, par conséquent, nous avons réussi à identifier R. groenlandicum ainsi que A. balsamea comme nouvelles plantes prometteuses contre la néphropathie diabétique. Nous croyons que ces résultats profiteront à la communauté crie pour la gestion des complications diabétiques, en particulier la néphropathie diabétique. En parallèle, nos données pourraient faire avancer l'essai clinique de certaines plantes médicinales de la pharmacopée traditionnelle des Cris de la Baie James orientale du Canada.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Cette thèse examine l’investissement en capital humain au Canada en s’intéressant à la contribution de l’aide financière aux études, aux effets de la fiscalité, à la rentabilité de l’investissement en éducation postsécondaire et à la redistribution des revenus. Elle est subdivisée en cinq chapitres. Le premier chapitre présente une révue chronologique des études microéconomiques sur l’investissement en capital humain. Il présente également une synthèse des études canadiennes sur l’investissement en capital humain en insistant sur les limites portant essentiellement sur la non prise en compte de l’hétérogénéité des systèmes de prêts et bourses et des systèmes fiscaux à travers les provinces canadiennes et la faible analyse de la répartition des coûts et bénéfices de l’investissement en éducation au Canada. Le second chapitre présente la méthodologie de mesure des rendements de l’éducation et des gains issus des investissements en éducation. Il décrit les données utilisées et les résultats des régressions économetriques. Finalement, le chapitre présente SIMAID, un calculateur d’aide financière aux études élaboré pour les objectifs dans cette thèse et qui permet d’estimer le montant de l’aide financière devant être attribuée à chaque étudiant en fonction de ses caractéristiques personnelles et de celles de sa famille. Dans sa première section, le troisième chapitre présente les rendements sociaux, privés et publics de l’éducation et montre que les rendements de l’éducation varient selon les provinces, les filières de formation, le genre et les cohortes d’année de naissance et décroient avec le niveau d’éducation. Dans sa seconde section, le chapitre montre que l’aide financière aux études accroît le rendement des études du baccalauréat de 24.3% et 9.5% respectivement au Québec et en Ontario. Finalement, le chapitre indique qu’un changement du système d’aide financière aux études de Québec par celui de l’Ontario entraîne une baisse de 11.9% du rendement des études au baccalauréat alors qu’un changement du système fiscal québécois par celui ontarien entraine une hausse du rendement du baccalauréat de 4.5%. L’effet combiné du changement des systèmes d’aide financière et fiscal est une baisse du rendement du baccalauréat de 7.4%. Le quatrième chapitre fournit une décomposition comptable détaillée des gains sociaux, privés et publics des investissements en éducation. Le gain social de l’investissement au baccalauréat est de $738 384 au Québec et de $685 437 en Ontario. Ce gain varie selon les filières de formation avec un niveau minimal pour les études humanitaires et un niveau maximal pour les études en ingénierie. Le chapitre montre également que la répartition des bénéfices et des coûts de l’investissement en éducation entre les individus et le gouvernement est plus équitable en Ontario qu’à Québec. En effet, un individu qui investit à Québec supporte 51.6% du coût total et engrange 64.8% des gains alors que le même individu supporterait 62.9% des coûts sociaux et engrangerait 62.2% des gains en Ontario. Finalement, le cinquième chapitre présente et analyse les effets rédistributifs des transferts et des taxes suite à un investissement en éducation. Il examine aussi si l’aide financière aux études est effectivement allouée aux personnes les plus pauvres. L’argument selon lequel l’aide financière est destinée aux plus pauvres est rejeté en analysant la distribution du revenu permanent. En effet, il ressort que 79% des personnes bénéficiant de l’aide financière aux études se trouvent dans le cinquième quintile de la distribution des revenus permanents. Le chapitre montre également que l’investissement en éducation impacte positivement les effets rédistributifs en 2006, 2001 et 1996 et négativement en 1991 et 2011. L’impact est également perceptible sur les composantes de l’effet rédistributif. Toutefois, la sensibilité de l’impact au taux d’actualisation dépend de l’indice utilisé dans l’analyse.
Resumo:
Cette recherche est motivée par un cas d’étude ou on doit déterminer le nombre de pièces à tenir en stock à chaque base (noeud du réseau) pour répondre à la demande au niveau de chaque noeud. Si le niveau du stock par mois est suffisant, la demande est satisfaite directement par son stock local, sinon on fait appel au transfert latéral. D’ailleurs, nos expériences numériques indiquent que l’inclusion des transbordements latéraux dans des décisions d’inventaire est avantageuse. Cet effet est plus grand pour des taux de demandes et des coûts latéraux, élevés. Les résultats d’une étude de cas théorique basée sur les travaux de (Tagaras 1989) confirment nos résultats.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
Resumo:
Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.
Resumo:
L’acceptabilité sociale prend de plus en plus de place dans la sphère publique depuis la dernière décennie et ce concept semble même faire la pluie et le beau temps lorsqu’un promoteur tente de mettre en œuvre un projet. Même si les problématiques d’acceptabilité sociale sont rencontrées dans tous les domaines allant de la construction de condominium à l’implantation de projets miniers, les promoteurs du secteur énergétique semblent avoir davantage de difficultés à l’obtenir. L’objectif de cet essai est donc de déterminer les éléments dans la démarche d’acceptabilité sociale des promoteurs de ce secteur qui font en sorte que leurs projets soient si mal acceptés. Une analyse a été réalisée en étudiant des projets bien acceptés socialement et d’autres comportant des lacunes au niveau de l’acceptabilité sociale, dans chacun des secteurs suivants : minier, industriel et énergétique. Ainsi, les bonnes pratiques relevées pourront servir d’exemple pour les promoteurs de projets énergétiques aux prises avec des problèmes dans ce domaine. Les pratiques de chaque secteur ont été évaluées à l’aide de critères tirés et adaptés de l’article 6 de la Loi sur le développement durable. Une note a ensuite été attribuée à chacun des critères. L’analyse a permis de démontrer qu’effectivement, le secteur de l’énergie accuse un retard sur les secteurs miniers et industriels, qui ont tous deux trouvé des moyens efficaces pour acquérir et maintenir l’acceptabilité sociale. Les critères nécessitant une amélioration imminente sont les suivants : la responsabilité environnementale, la santé-sécurité, la participation du public et l’internalisation des coûts. Des recommandations ont alors été formulées dans l’optique de favoriser l’acceptabilité sociale des projets énergétiques. Les promoteurs auraient avantage à se doter d’un cadre de référence en matière de responsabilité sociale et environnementale, à faire preuve de transparence ainsi qu’à produire un rapport de développement durable. Il serait également bénéfique pour le promoteur d’évaluer les impacts en collaborant avec les acteurs du milieu et de démontrer sa capacité à intervenir en cas d’urgence. Les démarches de consultation publiques devraient être bonifiées en initiant le processus dès la phase de préfaisabilité et en choisissant un porte-parole crédible et présent dans la communauté d’accueil. L’internalisation des coûts devrait aussi être effectuée de manière plus réaliste et exhaustive. En somme, il se peut qu’un projet ne soit jamais acceptable par la société d’accueil en dépit de tous les efforts déployés par le promoteur, mais une bonne image vaut son pesant d’or.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.
Resumo:
Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d’août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs.
Resumo:
La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.
Resumo:
Pavements tend to deteriorate with time under repeated traffic and/or environmental loading. By detecting pavement distresses and damage early enough, it is possible for transportation agencies to develop more effective pavement maintenance and rehabilitation programs and thereby achieve significant cost and time savings. The structural health monitoring (SHM) concept can be considered as a systematic method for assessing the structural state of pavement infrastructure systems and documenting their condition. Over the past several years, this process has traditionally been accomplished through the use of wired sensors embedded in bridge and highway pavement. However, the use of wired sensors has limitations for long-term SHM and presents other associated cost and safety concerns. Recently, micro-electromechanical sensors and systems (MEMS) and nano-electromechanical systems (NEMS) have emerged as advanced/smart-sensing technologies with potential for cost-effective and long-term SHM. This two-pronged study evaluated the performance of commercial off-the-shelf (COTS) MEMS sensors embedded in concrete pavement (Final Report Volume I) and developed a wireless MEMS multifunctional sensor system for health monitoring of concrete pavement (Final Report Volume II).