799 resultados para Réduction de dimensionnalité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

DSCAM est exprimé dans le cortex lors du développement et sa mutation altère lâarborisation dendritique des neurones pyramidaux du cortex moteur. Considérant que les souris DSCAM2J possèdent des problèmes posturaux et locomoteurs, nous émettons lâhypothèse que DSCAM est impliqué dans le fonctionnement normal du cortex moteur et de la voie corticospinale. Comparées aux souris contrôles, les souris DSCAM2J vont présenter des problèmes moteurs à basse vitesse et enjamber un obstacle presque normalement à vitesse intermédiaire. Le traçage antérograde de la voie corticospinale révèle un patron dâinnervation normal dans le tronc cérébrale et la moelle épinière. Des microstimulations intracorticale du cortex moteur évoque des réponses électromyographiques dans les membres à un seuil et une latence plus élevé. Par contre, une stimulation de la voie corticospinale dans la médulla évoque des réponses électromyographies à un seuil et une latence similaire entre les deux groupes, suggérant une réduction de lâexcitabilité du cortex moteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâun des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui nâexistent pas réellement dans les données, tandis quâune trop faible complexité mène au sous-apprentissage, câest-à-dire que lâexpressivité du modèle est insuffisante pour capturer lâensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par lâintroduction dâune ou plusieurs variables cachées dont le rôle est dâexpliquer le processus génératif des données. Il existe diverses approches permettant dâidentifier le nombre approprié de variables cachées dâun modèle. Cette thèse sâintéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de lâapprentissage automatique est assez récente. Leur principal attrait vient du fait quâelles offrent des modèles hautement flexibles et dont la complexité sâajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes dâapprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement dâalgorithmes dâinférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte dâapprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant lâapprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme dâinférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que lâapproche proposée surpasse en performance et en flexibilité les approches classiques dâapprentissage. Dans un deuxième temps, nous proposons lâextended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur lâespace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet dâidentifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme dâinférence Monte Carlo par chaîne de Markov est utilisé pour lâévaluation sur des problèmes dâidentification de structures et dâestimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que lâextended cascading Indian buffet process servant à lâapprentissage de graphes et dâordres. Lâavantage du nouveau modèle est quâil admet les connections entres les variables observables et quâil prend en compte lâordre des variables. Nous présentons un algorithme dâinférence Monte Carlo par chaîne de Markov avec saut réversible permettant lâapprentissage conjoint de graphes et dâordres. Lâévaluation est faite sur des problèmes dâestimations de densité et de test dâindépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant dâapprendre des réseaux Bayésiens disposant dâune structure complètement arbitraire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de lâÃnergie par Batterie ou Batterie de Stockage dâÃnergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation dâénergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant dâinjecter dâimportantes quantités dâénergie renouvelable dâune part et dâautre part, en tant que composante essentielle aux grands réseaux électriques. De plus, dâénormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de lâémission des gaz à effet de serre, la réduction des pertes marginales, lâalimentation de certains consommateurs en source dâénergie dâurgence, lâamélioration de la gestion de lâénergie, et lâaccroissement de lâefficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : lâÃtape 1 - est relative à lâutilisation de la BSE en guise de réduction des pertes électriques ; lâÃtape 2 - utilise la BSE comme élément de réserve tournante en vue de lâatténuation de la vulnérabilité du réseau ; et lâÃtape 3 - introduit une nouvelle méthode dâamélioration des oscillations de fréquence par modulation de la puissance réactive, et lâutilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Ãtape, relative à lâutilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à lâallocation optimale et le seconde, à lâutilisation optimale. Dans la première sous-étape, lâAlgorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de lâIREQ, en tant quâalgorithme évolutionniste multiobjectifs, permettant dâextraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à lâallocation et résout aussi la question de la programmation/scheduling dans lâinterconnexion du Québec. Dans le but de réaliser lâobjectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps dâune année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et lâefficacité énergétique constituent les principaux objectifs. Quant à la seconde Ãtape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. Lâalgorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de lâindice de vulnérabilité proposé et lâefficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que lâutilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Ãtape expose un nouveau concept dâajout dâune inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté lâutilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à lâinterconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de lâutilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La photocatalyse est un procédé dâoxydation avancé très intéressant puisquâil ne nécessite lâajout dâaucun réactif chimique. Beaucoup de compagnies souhaitent utiliser ce procédé pour le traitement des gaz et des eaux. Les services Exp inc. est une compagnie qui sâintéresse à la dégradation des composés organiques volatils en milieu aqueux. Ils ont comme objectif dâaméliorer leurs technologies et dâen développer de nouvelles comme la photocatalyse. Lâobjectif ce de projet de maîtrise est de développer un matériau capable dâ˜oxyder le méthanol en phase aqueuse. Le développement dâun tel photocatalyseur permet dâévaluer systématiquement lâimpact de toutes les modifications apportées à un matériau de base et dâen comprendre les bénéfices. Le matériau préparé est basé sur des nanotiges de WO3 synthétisées par voie hydrothermale où lâon ajoute des nanoparticules de TiO2 pour former un composé mixte. Un co-catalyseur de réduction, le platine, est ajouté par photodéposition sur le composé TiO2/WO3. Le produit est finalement traité à lâhydrogène pour en augmenter lâactivité catalytique. Pour tester les matériaux, un réacteur photocatalytique a été conçu. Le réacteur possède deux configurations, soit une avec une lampe ultraviolette plongée dans lâeau et une avec une bande de diodes électroluminescentes bleues autour du réacteur. Les modifications, telles que le traitement sous hydrogène et lâajout de platine, augmentent considérablement lâactivité des photocatalyseurs. Les nanotiges de WO3 possèdent une faible surface spécifique offrant donc une activité inférieure à un autre composé avec plus de surface. Lâactivité des photocatalyseurs est plus faible que celles desprocédés utilisant du peroxyde. Cependant, plusieurs avantages sont remarqués. La photocatalyse se fait à pH neutre et il est possible dâutiliser de la lumière visible. Un matériau photocatalytique basé sur des nanoparticules de WO3 à haute surface spécifique avec du TiO2, du platine et traité à lâhydrogène pourrait offrir une avenue intéressante pour Exp inc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâobjectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à lâinsécurité alimentaire et contribue aux changements climatiques et à lâépuisement des ressources, en plus de générer des coûts économiques pour la production dâaliments qui ne seront pas consommés. Sâattaquer à la problématique du gaspillage alimentaire signifie donc sâattaquer à tous ces impacts négatifs. Au Québec, lâintérêt envers le phénomène du gaspillage alimentaire sâaccroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisquâelles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. Lâétude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. Lâanalyse du fonctionnement de ces solutions et de leur mise en Åuvre dans le contexte des épiceries québécoises permet dâidentifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect dâune hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant lâélimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également lâimportance dâétudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe dâacteurs et chaque étape de la chaîne agroalimentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques dâimagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (dâun composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous lâémetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique dâimagerie et de la propagation dâondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation dâimagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de lâimagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâimpact environnemental global relié à lâalimentation présente un bilan sombre. Lâagriculture industrielle est lâun des secteurs les plus polluants. Y sont associés, entre autres, la déplétion des ressources hydriques, la perte et lâérosion des sols, la dérive et la contamination par les pesticides, la perte de biodiversité, la déforestation, les déséquilibres des cycles de nutriments, la consommation de carburants fossiles, dâimportantes émissions de gaz à effet de serre et la pollution des cours dâeau. Les choix alimentaires des Québécois sont directement reliés à ces impacts, puisque notre nourriture est en grande partie produite par lâagriculture industrielle. Lâobjectif de cet essai est de comparer les régimes locavores et végétaliens qui se présentent comme alternative pour réduire lâimpact environnemental associé à lâalimentation. Le contexte de lâétude est au mois de janvier, au Québec. En regard aux impacts environnementaux des choix alimentaires et des modes de production, des recommandations visant la réduction de lâimpact de lâalimentation sur lâenvironnement seront effectuées. Lâexploration des régimes végétaliens et locavores dans un contexte hivernal québécois permet de déterminer quels sont les bénéfices et désavantages qui y sont associés sur le plan des gaz à effet de serre. Le transport sur des milliers de kilomètres de la plupart des aliments dâun régime végétalien en janvier génère un impact. Le régime locavore, quant à lui, inclut la consommation de viande, aliment pointé du doigt pour la forte pollution quâelle engendre. Les conclusions de lâessai montrent que le régime végétalien présente un plus faible impact en termes de gaz à effet de serre que le régime locavore, lorsquâil est pratiqué au mois de janvier au Québec. Les résultats indiquent que la consommation de viande et de produits animaux dans le régime locavore contribue à lâaugmentation de lâimpact de ce dernier. De plus, les aliments provenant de serres chauffées aux énergies fossiles présentaient aussi un bilan très négatif, par exemple la laitue. Les quantités de gaz à effet de serre émis pour une semaine de régime, en fonction des recommandations du Guide alimentaire canadien, étaient de 13,8 % supérieures pour le régime locavore. Au regard des résultats obtenus et du bilan environnemental de lâagriculture industrielle, plusieurs recommandations ont été proposées. La transition du système alimentaire vers des solutions locales et avec des circuits courts est à privilégier. Un changement dans les modes culturaux de la production conventionnelle à grande échelle vers des productions plus petites, biologiques et pratiquées selon des méthodes respectueuses de lâenvironnement est aussi souhaitable. Le changement des habitudes des consommateurs est essentiel, tant sur le plan du choix des aliments que sur le choix des marchands et de la façon de consommer. Finalement, toutes les parties prenantes impliquées dans la chaîne alimentaire sont invitées à dialoguer et à mettre en place des actions afin de réduire lâimpact dévastateur de lâalimentation sur lâenvironnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet dâétude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur lâutilisation dâondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides dâondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin dâinspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont lâobjectif principal est de développer une banque de connaissances quant à la propagation dâondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente dâabord les résultats dâétudes paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement dâun absorbant dâondes guidées. Cet absorbant permet également dâenvisager lâextension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par lâatténuation de réflexions non désirées dans lâétude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève lâétat des connaissances de la littérature sur la propagation dâondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais dâune phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception dâun absorbant idéal pour ondes guidées. Afin dây parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de lâabsorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence de lâobésité sévère ne cesse dâaugmenter. La problématique associée à lâobésité sévère est la présence possible de nombreuses comorbidités qui peuvent coexister et altérer le système cardiovasculaire, pulmonaire, endocrinien, articulaire et même favoriser le développement de certains cancers. Lâexcès de poids, plus particulièrement lâexcès de tissu adipeux, sont tous deux liés au développement de ces comorbidités. Aucune donnée nâest disponible quant au rôle de la déposition ectopique du tissu adipeux. Considérant le caractère morbide de lâobésité sévère, la mortalité de toute cause augmentée et lâespérance de vie réduite, à ce jour le seul traitement dit efficace à long terme pour le traitement de lâobésité sévère est la chirurgie bariatrique. Lâefficacité est définie par la perte de poids, le maintien à long terme de cette perte de poids ainsi que par lâamélioration ou la résolution des comorbidités. Lâintérêt clinique et scientifique pour la chirurgie bariatrique est grandissant. Un nombre important dâétudes sâintéresse aux mécanismes sous-jacents de la résolution des comorbidités. Le diabète de type 2 est la comorbidité la plus étudiée et peu dâétudes se sont intéressées aux déterm meil.inants de la résolution de lâhypertension artérielle et de lâapnée obstructive du som Comme premier objectif, cette thèse visait à caractériser les différences de la composition corporelle et de la distribution du tissu adipeux de patients obèses sévères avec ou sans diagnostic de diabète de type 2, dâhypertension artérielle et dâapnée obstructive du sommeil. Le deuxième objectif de cette thèse visait à comparer lâévolution postopératoire suite à une chirurgie bariatrique sur les changements de la composition corporelle et de la distribution du tissu adipeux selon le statut de résolution du diabète de type 2, de lâhypertension artérielle et de lâapnée obstructive du sommeil. De plus, considérant le peu dâévidences dans la littérature au sujet des déterminants de la résolution de lâhypertension artérielle et de lâapnée obstructive du sommeil, lâévaluation du profil inflammatoire, des adipokines et de lâactivité du système nerveux autonome ont aussi été caractérisés. Premièrement, nous avons documenté quâen présence dâobésité sévère, la déposition ectopique du tissu adipeux était plus importante chez les patients avec un diabète de type 2, une hypertension artérielle et une apnée obstructive du sommeil comparativement à ceux nâayant pas ces comorbidités. Nous avons par la suite montré que la résolution du diabète de type 2 et de lâhypertension artérielle était caractérisée par une réduction plus importante du tissu adipeux viscéral. Au contraire, la résolution de lâapnée obstructive du sommeil était plutôt caractérisée par une réduction plus importante du tissu adipeux sous-cutané à la mi-cuisse et par une tendance à une perte de poids plus élevée. De plus, nous avons observé que chez les patients qui nâavaient pas résolu leur diabète de type 2, leur hypertension artérielle et leur apnée obstructive du sommeil, la quantité de tissu adipeux viscéral, à 12 mois suivant la chirurgie bariatrique, était plus importante comparativement à celle mesurée chez les patients nâayant pas résolu ces comorbidités. Spécifiquement à lâévaluation du profil inflammatoire et des adipokines, nous avons observé que chez les patients obèses sévères, la présence de lâhypertension artérielle et de lâapnée obstructive du sommeil nâétait pas caractérisée par un profil altéré au niveau des marqueurs inflammatoires et des adipokines. Ãgalement, nous nâavons pas observé de changements majeurs qui pouvaient expliquer, en partie, la résolution de lâhypertension artérielle et de lâapnée obstructive du sommeil. Quant à lâactivité du système nerveux autonome, nous avons observé une faible activité du système nerveux parasympathique chez les patients obèses sévères avec hypertension artérielle et apnée obstructive du sommeil. Nous avons également documenté que la résolution de lâhypertension artérielle et de lâapnée obstructive du sommeil était associée à une tendance à une augmentation plus importante de lâactivité parasympathique du système nerveux autonome. Les résultats obtenus au cours de ce doctorat supportent lâimportance de la déposition ectopique du tissu adipeux en situation dâobésité sévère, particulièrement le rôle du tissu adipeux viscéral, dans le développement du diabète de type 2, de lâhypertension artérielle et de lâapnée obstructive du sommeil ainsi que dans la résolution de ces comorbidités suivant une chirurgie bariatrique. Dâautres recherches devront davantage sâintéresser à la mobilisation des dépôts ectopiques de tissu adipeux comme un déterminant important dans la résolution à plus long terme de ces comorbidités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à lâétat fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et dâautonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, lâautonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. à Th â¥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors quâà Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui nâest pas le cas du processus dâautonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâobjectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour lâimplantation réussie dâun système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, lâanalyse des cas à succès en Amérique du Nord et en Europe, lâidentification des préalables nécessaires à lâimplantation, les étapes opérationnelles de la mise en Åuvre et la communication adéquate du processus. Lâimportance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à lâélimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent quâune tarification incitative fonctionnelle dépend de lâadaptation du système aux particularités de chaque municipalité. Ceci sâapplique au choix du contenant de collecte, des modalités de la facturation et à lâélaboration de la grille tarifaire. En préparation du projet, il est important dâoffrir le plus de services complémentaires que possibles afin dâinciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes dâune implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet lâélaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de lâappel dâoffres et le vote du projet s'en suivent. La mise en Åuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à lâoption de commencer par un test à blanc avant dâintroduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés sâimpose. Une communication adéquate avant, pendant et après lâimplantation est indispensable. La réussite du projet est fortement améliorée par lâallocation dâun chargé de projet responsable dès le début et la portée du projet par les élus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans lâindustrie de lâaluminium, le coke de pétrole calciné est considéré comme étant le composant principal de lâanode. Une diminution dans la qualité du coke de pétrole a été observée suite à une augmentation de sa concentration en impuretés. Cela est très important pour les alumineries car ces impuretés, en plus dâavoir un effet réducteur sur la performance des anodes, contaminent le métal produit. Le coke de pétrole est aussi une source de carbone fossile et, durant sa consommation, lors du processus dâélectrolyse, il y a production de CO2. Ce dernier est considéré comme un gaz à effet de serre et il est bien connu pour son rôle dans le réchauffement planétaire et aussi dans les changements climatiques. Le charbon de bois est disponible et est produit mondialement en grande quantité. Il pourrait être une alternative attrayante pour le coke de pétrole dans la fabrication des anodes de carbone utilisées dans les cuves dâélectrolyse pour la production de lâaluminium. Toutefois, puisquâil ne répond pas aux critères de fabrication des anodes, son utilisation représente donc un grand défi. En effet, ses principaux désavantages connus sont sa grande porosité, sa structure désordonnée et son haut taux de minéraux. De plus, sa densité et sa conductivité électrique ont été rapportées comme étant inférieures à celles du coke de pétrole. Lâobjectif de ce travail est dâexplorer lâeffet du traitement de chaleur sur les propriétés du charbon de bois et cela, dans le but de trouver celles qui sâapprochent le plus des spécifications requises pour la production des anodes. Lâévolution de la structure du charbon de bois calciné à haute température a été suivie à lâaide de différentes techniques. La réduction de son contenu en minéraux a été obtenue suite à des traitements avec de lâacide chlorhydrique utilisé à différentes concentrations. Finalement, différentes combinaisons de ces deux traitements, calcination et lixiviation, ont été essayées dans le but de trouver les meilleures conditions de traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save peopleâs lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, la grippe provoque des centaines de milliers de décès dans le monde. Dans le cas dâinfections sévères, il a été démontré que la génération excessive de molécules inflammatoires telles que les cytokines et les chimiokines, la sécrétion dâespèces réactives dérivées de l'oxygène ainsi que lâafflux massif de cellules immunitaires innées et adaptatives dans les voies respiratoires contribuent à la génération de dommages pulmonaires aigus et contribuent à l'immunopathologie reliée à lâinfection. Tenant compte de ce fait, le défi actuel dans le traitement de la grippe est de contrôler la réponse inflammatoire tout en inhibant la réplication virale afin de permettre à l'organisme de se défendre contre les infections sévères à l'influenza. Des études récentes ont montré que lâactivation du récepteur nucléaire PPARγ par ses ligands, tel que la 15d-PGJ[indice inférieur 2], diminuait lâinflammation pulmonaire et améliorait la survie des souris infectées avec des doses létales du virus influenza. Mis à part ses effets sur PPARγ, le ligand 15d-PGJ[indice inférieur 2] est aussi connu pour activer le facteur nucléaire antioxydant Nrf2. Il a été montré que Nrf2 réduit la réplication du virus influenza. Cependant, son mode d'action dans cette fonction nécessite une clarification. De manière intéressante, une étude a montré que Nrf2 réduit lâinflammation pulmonaire en régulant lâexpression de PPARγ et ceci dans un modèle murin du syndrome de détresse respiratoire aigu. Les résultats de ces études précédentes mènent à lâhypothèse que les voies de PPARγ et Nrf2 interagissent fonctionnellement et qu'elles sont impliquées dans la réduction de lâinflammation induite lors d'infections sévères causées par l'influenza. Lâobjectif général de cette étude est donc de mieux comprendre les mécanismes protecteurs de PPARγ et Nrf2 dans la régulation de lâinflammation et la réplication virale suite à une infection par le virus influenza. Nos résultats ont démontré premièrement que le fait de cibler les deux voies moléculaires PPARγ et Nrf2, permet une inhibition significative de lâinflammation et de la morbidité liée à lâinfection. Dans un deuxième temps, nos résultats dévoilent le mécanisme antiviral de Nrf2 et démontrent que lâactivation de cette voie réduit la réplication du virus influenza dâune façon dépendante de lâexpression de lâantiprotéase SLPI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La maladie osseuse de Paget (MP) est un désordre squelettique caractérisé par une augmentation focale et désorganisée du remodelage osseux. Les ostéoclastes (OCs) de MP sont plus larges, actifs et nombreux, en plus dâêtre résistants à lâapoptose. Même si la cause précise de la MP demeure inconnue, des mutations du gène SQSTM1, codant pour la protéine p62, ont été décrites dans une proportion importante de patients avec MP. Parmi ces mutations, la substitution P392L est la plus fréquente, et la surexpression de p62P392L dans les OCs génère un phénotype pagétique partiel. La protéine p62 est impliquée dans de multiples processus, allant du contrôle de la signalisation NF-κB à lâautophagie. Dans les OCs humains, un complexe multiprotéique composé de p62 et des kinases PKCÎ et PDK1 est formé en réponse à une stimulation par Receptor Activator of Nuclear factor Kappa-B Ligand (RANKL), principale cytokine impliquée dans la formation et l'activation des OCs. Nous avons démontré que PKCÎ est impliquée dans lâactivation de NF-κB induite par RANKL dans les OCs, et dans son activation constitutive en présence de p62P392L. Nous avons également observé une augmentation de phosphorylation de Ser536 de p65 par PKCÎ, qui est indépendante dâIκB et qui pourrait représenter une voie alternative d'activation de NF-κB en présence de la mutation de p62. Nous avons démontré que les niveaux de phosphorylation des régulateurs de survie ERK et Akt sont augmentés dans les OCs MP, et réduits suite à l'inhibition de PDK1. La phosphorylation des substrats de mTOR, 4EBP1 et la protéine régulatrice Raptor, a été évaluée, et une augmentation des deux a été observée dans les OCs pagétiques, et est régulée par l'inhibition de PDK1. Ãgalement, l'augmentation des niveaux de base de LC3II (associée aux structures autophagiques) observée dans les OCs pagétiques a été associée à un défaut de dégradation des autophagosomes, indépendante de la mutation p62P392L. Il existe aussi une réduction de sensibilité à lâinduction de l'autophagie dépendante de PDK1. De plus, lâinhibition de PDK1 induit lâapoptose autant dans les OCs contrôles que pagétiques, et mène à une réduction significative de la résorption osseuse. La signalisation PDK1/Akt pourrait donc représenter un point de contrôle important dans lâactivation des OCs pagétiques. Ces résultats démontrent lâimportance de plusieurs kinases associées à p62 dans la sur-activation des OCs pagétiques, dont la signalisation converge vers une augmentation de leur survie et de leur fonction de résorption, et affecte également le processus autophagique.