600 resultados para Réduction de dimensionnalité
Resumo:
L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
L’impact environnemental global relié à l’alimentation présente un bilan sombre. L’agriculture industrielle est l’un des secteurs les plus polluants. Y sont associés, entre autres, la déplétion des ressources hydriques, la perte et l’érosion des sols, la dérive et la contamination par les pesticides, la perte de biodiversité, la déforestation, les déséquilibres des cycles de nutriments, la consommation de carburants fossiles, d’importantes émissions de gaz à effet de serre et la pollution des cours d’eau. Les choix alimentaires des Québécois sont directement reliés à ces impacts, puisque notre nourriture est en grande partie produite par l’agriculture industrielle. L’objectif de cet essai est de comparer les régimes locavores et végétaliens qui se présentent comme alternative pour réduire l’impact environnemental associé à l’alimentation. Le contexte de l’étude est au mois de janvier, au Québec. En regard aux impacts environnementaux des choix alimentaires et des modes de production, des recommandations visant la réduction de l’impact de l’alimentation sur l’environnement seront effectuées. L’exploration des régimes végétaliens et locavores dans un contexte hivernal québécois permet de déterminer quels sont les bénéfices et désavantages qui y sont associés sur le plan des gaz à effet de serre. Le transport sur des milliers de kilomètres de la plupart des aliments d’un régime végétalien en janvier génère un impact. Le régime locavore, quant à lui, inclut la consommation de viande, aliment pointé du doigt pour la forte pollution qu’elle engendre. Les conclusions de l’essai montrent que le régime végétalien présente un plus faible impact en termes de gaz à effet de serre que le régime locavore, lorsqu’il est pratiqué au mois de janvier au Québec. Les résultats indiquent que la consommation de viande et de produits animaux dans le régime locavore contribue à l’augmentation de l’impact de ce dernier. De plus, les aliments provenant de serres chauffées aux énergies fossiles présentaient aussi un bilan très négatif, par exemple la laitue. Les quantités de gaz à effet de serre émis pour une semaine de régime, en fonction des recommandations du Guide alimentaire canadien, étaient de 13,8 % supérieures pour le régime locavore. Au regard des résultats obtenus et du bilan environnemental de l’agriculture industrielle, plusieurs recommandations ont été proposées. La transition du système alimentaire vers des solutions locales et avec des circuits courts est à privilégier. Un changement dans les modes culturaux de la production conventionnelle à grande échelle vers des productions plus petites, biologiques et pratiquées selon des méthodes respectueuses de l’environnement est aussi souhaitable. Le changement des habitudes des consommateurs est essentiel, tant sur le plan du choix des aliments que sur le choix des marchands et de la façon de consommer. Finalement, toutes les parties prenantes impliquées dans la chaîne alimentaire sont invitées à dialoguer et à mettre en place des actions afin de réduire l’impact dévastateur de l’alimentation sur l’environnement.
Resumo:
La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.
Resumo:
La prévalence de l’obésité sévère ne cesse d’augmenter. La problématique associée à l’obésité sévère est la présence possible de nombreuses comorbidités qui peuvent coexister et altérer le système cardiovasculaire, pulmonaire, endocrinien, articulaire et même favoriser le développement de certains cancers. L’excès de poids, plus particulièrement l’excès de tissu adipeux, sont tous deux liés au développement de ces comorbidités. Aucune donnée n’est disponible quant au rôle de la déposition ectopique du tissu adipeux. Considérant le caractère morbide de l’obésité sévère, la mortalité de toute cause augmentée et l’espérance de vie réduite, à ce jour le seul traitement dit efficace à long terme pour le traitement de l’obésité sévère est la chirurgie bariatrique. L’efficacité est définie par la perte de poids, le maintien à long terme de cette perte de poids ainsi que par l’amélioration ou la résolution des comorbidités. L’intérêt clinique et scientifique pour la chirurgie bariatrique est grandissant. Un nombre important d’études s’intéresse aux mécanismes sous-jacents de la résolution des comorbidités. Le diabète de type 2 est la comorbidité la plus étudiée et peu d’études se sont intéressées aux déterm meil.inants de la résolution de l’hypertension artérielle et de l’apnée obstructive du som Comme premier objectif, cette thèse visait à caractériser les différences de la composition corporelle et de la distribution du tissu adipeux de patients obèses sévères avec ou sans diagnostic de diabète de type 2, d’hypertension artérielle et d’apnée obstructive du sommeil. Le deuxième objectif de cette thèse visait à comparer l’évolution postopératoire suite à une chirurgie bariatrique sur les changements de la composition corporelle et de la distribution du tissu adipeux selon le statut de résolution du diabète de type 2, de l’hypertension artérielle et de l’apnée obstructive du sommeil. De plus, considérant le peu d’évidences dans la littérature au sujet des déterminants de la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil, l’évaluation du profil inflammatoire, des adipokines et de l’activité du système nerveux autonome ont aussi été caractérisés. Premièrement, nous avons documenté qu’en présence d’obésité sévère, la déposition ectopique du tissu adipeux était plus importante chez les patients avec un diabète de type 2, une hypertension artérielle et une apnée obstructive du sommeil comparativement à ceux n’ayant pas ces comorbidités. Nous avons par la suite montré que la résolution du diabète de type 2 et de l’hypertension artérielle était caractérisée par une réduction plus importante du tissu adipeux viscéral. Au contraire, la résolution de l’apnée obstructive du sommeil était plutôt caractérisée par une réduction plus importante du tissu adipeux sous-cutané à la mi-cuisse et par une tendance à une perte de poids plus élevée. De plus, nous avons observé que chez les patients qui n’avaient pas résolu leur diabète de type 2, leur hypertension artérielle et leur apnée obstructive du sommeil, la quantité de tissu adipeux viscéral, à 12 mois suivant la chirurgie bariatrique, était plus importante comparativement à celle mesurée chez les patients n’ayant pas résolu ces comorbidités. Spécifiquement à l’évaluation du profil inflammatoire et des adipokines, nous avons observé que chez les patients obèses sévères, la présence de l’hypertension artérielle et de l’apnée obstructive du sommeil n’était pas caractérisée par un profil altéré au niveau des marqueurs inflammatoires et des adipokines. Également, nous n’avons pas observé de changements majeurs qui pouvaient expliquer, en partie, la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil. Quant à l’activité du système nerveux autonome, nous avons observé une faible activité du système nerveux parasympathique chez les patients obèses sévères avec hypertension artérielle et apnée obstructive du sommeil. Nous avons également documenté que la résolution de l’hypertension artérielle et de l’apnée obstructive du sommeil était associée à une tendance à une augmentation plus importante de l’activité parasympathique du système nerveux autonome. Les résultats obtenus au cours de ce doctorat supportent l’importance de la déposition ectopique du tissu adipeux en situation d’obésité sévère, particulièrement le rôle du tissu adipeux viscéral, dans le développement du diabète de type 2, de l’hypertension artérielle et de l’apnée obstructive du sommeil ainsi que dans la résolution de ces comorbidités suivant une chirurgie bariatrique. D’autres recherches devront davantage s’intéresser à la mobilisation des dépôts ectopiques de tissu adipeux comme un déterminant important dans la résolution à plus long terme de ces comorbidités.
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.
Resumo:
Dans l’industrie de l’aluminium, le coke de pétrole calciné est considéré comme étant le composant principal de l’anode. Une diminution dans la qualité du coke de pétrole a été observée suite à une augmentation de sa concentration en impuretés. Cela est très important pour les alumineries car ces impuretés, en plus d’avoir un effet réducteur sur la performance des anodes, contaminent le métal produit. Le coke de pétrole est aussi une source de carbone fossile et, durant sa consommation, lors du processus d’électrolyse, il y a production de CO2. Ce dernier est considéré comme un gaz à effet de serre et il est bien connu pour son rôle dans le réchauffement planétaire et aussi dans les changements climatiques. Le charbon de bois est disponible et est produit mondialement en grande quantité. Il pourrait être une alternative attrayante pour le coke de pétrole dans la fabrication des anodes de carbone utilisées dans les cuves d’électrolyse pour la production de l’aluminium. Toutefois, puisqu’il ne répond pas aux critères de fabrication des anodes, son utilisation représente donc un grand défi. En effet, ses principaux désavantages connus sont sa grande porosité, sa structure désordonnée et son haut taux de minéraux. De plus, sa densité et sa conductivité électrique ont été rapportées comme étant inférieures à celles du coke de pétrole. L’objectif de ce travail est d’explorer l’effet du traitement de chaleur sur les propriétés du charbon de bois et cela, dans le but de trouver celles qui s’approchent le plus des spécifications requises pour la production des anodes. L’évolution de la structure du charbon de bois calciné à haute température a été suivie à l’aide de différentes techniques. La réduction de son contenu en minéraux a été obtenue suite à des traitements avec de l’acide chlorhydrique utilisé à différentes concentrations. Finalement, différentes combinaisons de ces deux traitements, calcination et lixiviation, ont été essayées dans le but de trouver les meilleures conditions de traitement.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Chaque année, la grippe provoque des centaines de milliers de décès dans le monde. Dans le cas d’infections sévères, il a été démontré que la génération excessive de molécules inflammatoires telles que les cytokines et les chimiokines, la sécrétion d’espèces réactives dérivées de l'oxygène ainsi que l’afflux massif de cellules immunitaires innées et adaptatives dans les voies respiratoires contribuent à la génération de dommages pulmonaires aigus et contribuent à l'immunopathologie reliée à l’infection. Tenant compte de ce fait, le défi actuel dans le traitement de la grippe est de contrôler la réponse inflammatoire tout en inhibant la réplication virale afin de permettre à l'organisme de se défendre contre les infections sévères à l'influenza. Des études récentes ont montré que l’activation du récepteur nucléaire PPARγ par ses ligands, tel que la 15d-PGJ[indice inférieur 2], diminuait l’inflammation pulmonaire et améliorait la survie des souris infectées avec des doses létales du virus influenza. Mis à part ses effets sur PPARγ, le ligand 15d-PGJ[indice inférieur 2] est aussi connu pour activer le facteur nucléaire antioxydant Nrf2. Il a été montré que Nrf2 réduit la réplication du virus influenza. Cependant, son mode d'action dans cette fonction nécessite une clarification. De manière intéressante, une étude a montré que Nrf2 réduit l’inflammation pulmonaire en régulant l’expression de PPARγ et ceci dans un modèle murin du syndrome de détresse respiratoire aigu. Les résultats de ces études précédentes mènent à l’hypothèse que les voies de PPARγ et Nrf2 interagissent fonctionnellement et qu'elles sont impliquées dans la réduction de l’inflammation induite lors d'infections sévères causées par l'influenza. L’objectif général de cette étude est donc de mieux comprendre les mécanismes protecteurs de PPARγ et Nrf2 dans la régulation de l’inflammation et la réplication virale suite à une infection par le virus influenza. Nos résultats ont démontré premièrement que le fait de cibler les deux voies moléculaires PPARγ et Nrf2, permet une inhibition significative de l’inflammation et de la morbidité liée à l’infection. Dans un deuxième temps, nos résultats dévoilent le mécanisme antiviral de Nrf2 et démontrent que l’activation de cette voie réduit la réplication du virus influenza d’une façon dépendante de l’expression de l’antiprotéase SLPI.
Resumo:
Résumé : La maladie osseuse de Paget (MP) est un désordre squelettique caractérisé par une augmentation focale et désorganisée du remodelage osseux. Les ostéoclastes (OCs) de MP sont plus larges, actifs et nombreux, en plus d’être résistants à l’apoptose. Même si la cause précise de la MP demeure inconnue, des mutations du gène SQSTM1, codant pour la protéine p62, ont été décrites dans une proportion importante de patients avec MP. Parmi ces mutations, la substitution P392L est la plus fréquente, et la surexpression de p62P392L dans les OCs génère un phénotype pagétique partiel. La protéine p62 est impliquée dans de multiples processus, allant du contrôle de la signalisation NF-κB à l’autophagie. Dans les OCs humains, un complexe multiprotéique composé de p62 et des kinases PKCζ et PDK1 est formé en réponse à une stimulation par Receptor Activator of Nuclear factor Kappa-B Ligand (RANKL), principale cytokine impliquée dans la formation et l'activation des OCs. Nous avons démontré que PKCζ est impliquée dans l’activation de NF-κB induite par RANKL dans les OCs, et dans son activation constitutive en présence de p62P392L. Nous avons également observé une augmentation de phosphorylation de Ser536 de p65 par PKCζ, qui est indépendante d’IκB et qui pourrait représenter une voie alternative d'activation de NF-κB en présence de la mutation de p62. Nous avons démontré que les niveaux de phosphorylation des régulateurs de survie ERK et Akt sont augmentés dans les OCs MP, et réduits suite à l'inhibition de PDK1. La phosphorylation des substrats de mTOR, 4EBP1 et la protéine régulatrice Raptor, a été évaluée, et une augmentation des deux a été observée dans les OCs pagétiques, et est régulée par l'inhibition de PDK1. Également, l'augmentation des niveaux de base de LC3II (associée aux structures autophagiques) observée dans les OCs pagétiques a été associée à un défaut de dégradation des autophagosomes, indépendante de la mutation p62P392L. Il existe aussi une réduction de sensibilité à l’induction de l'autophagie dépendante de PDK1. De plus, l’inhibition de PDK1 induit l’apoptose autant dans les OCs contrôles que pagétiques, et mène à une réduction significative de la résorption osseuse. La signalisation PDK1/Akt pourrait donc représenter un point de contrôle important dans l’activation des OCs pagétiques. Ces résultats démontrent l’importance de plusieurs kinases associées à p62 dans la sur-activation des OCs pagétiques, dont la signalisation converge vers une augmentation de leur survie et de leur fonction de résorption, et affecte également le processus autophagique.
Resumo:
Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.
Resumo:
La mondialisation de l'économie et la globalisation des marchés ont modifié la relation entre l'entreprise et le consommateur. Alors que ce dernier profite d'une réduction des prix, d'une amélioration de la qualité des produits et d'une foule d'autres avantages issus de la concurrence internationale, les entreprises doivent travailler fort pour conserver ou augmenter leurs parts de marché dans cet environnement hautement concurrentiel. Dans un tel contexte, les études sur l'influence du pays d'origine d'un produit sur la perception des consommateurs sont d'une grande utilité. Elles permettent aux gestionnaires de mieux comprendre les consommateurs dans leurs choix, d'identifier les attributs du produit qu'ils considèrent importants et d'augmenter les ventes de l'entreprise. Dans le cadre du récent accord de libre-échange entre le Canada, le Mexique et les États-Unis (ALENA), cette étude menée au Mexique permet de répondre aux besoins des entreprises qui désirent exporter dans ce pays en les renseignant sur les caractéristiques des produits qui influencent le jugement des consommateurs mexicains. Les effets du pays de conception, du pays d'assemblage et de la provenance des pièces sur la qualité perçue ainsi que sur la valeur de l'achat sont étudiés à l'aide de profils de produits présentés aux consommateurs mexicains. Les produits utilisés sont l'automobile, le magnétoscope et les chaussures. Les résultats indiquent que les consommateurs utilisent surtout le pays de conception pour évaluer la qualité ou la valeur des automobiles et la provenance des pièces pour l'évaluation des magnétoscopes. Lorsqu'il s'agit d'évaluer la valeur d'achat des chaussures, les Mexicains se basent davantage sur la garantie. On observe, entre autres, que les Mexicains préfèrent davantage les produits assemblés au Mexique que ceux provenant du Canada. Enfin, le parallèle avec les résultats d'études antérieures permet de confirmer ou d'infirmer certains résultats. Les implications de ces derniers sont discutées par la suite.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Cette étude examine l'impact de la révision du chapitre 3480 de l'I.C.C.A., survenue en décembre 1989, sur le comportement des gestionnaires des entreprises canadiennes dans le traitement des éléments extraordinaires. L'ajout d'un troisième critère à la définition, relatif à l'absence de contrôle de la direction ou de ses dirigeants dans l'appréciation des éléments extraordinaires, semble avoir pour objectif d'uniformiser la classification et la présentation des différentes composantes de l'état des résultats. Cette uniformisation permettrait potentiellement d'éliminer les manipulations comptables par l'utilisation de certains éléments extraordinaires pour lisser les bénéfices. L'analyse de trois modèles de régression, pour la première période (trois ans pré-révision) suggère que l'ancienne définition des éléments extraordinaires a permis à certains gestionnaires canadiens d'utiliser les éléments extraordinaires discrétionnaires et semi-discrétionnaires pour lisser leurs bénéfices dans le temps. Par contre, son resserrement (trois ans post-révision) a contribué à une réduction importante du nombre des éléments extraordinaires dans les états financiers. La limitation de ces éléments aux seuls événements fortuits et hors du contrôle de la direction semble enrayé les latitudes discrétionnaires observées auparavant. En outre, l'association entre la présence de lissage et les caractéristiques financières de l'entreprise (pour la première période) suggèrent que la variabilité des bénéfices ainsi que la taille sont les deux indicateurs de lissage, en ce sens qu'ils incitent les gestionnaires à lisser leurs bénéfices par l'utilisation d'éléments extraordinaires. Il ressort de cette étude que les objectifs recherchés par la révision du chapitre 3480 de l'I.C.C.A. semblent atteints. Dorénavant, les éléments extraordinaires ne peuvent plus faire l'objet de manipulations pour lisser les bénéfices.