928 resultados para Life cycle analysis
Resumo:
Industrial production of pulp and paper is an intensive consumer of energy, natural resources, and chemicals that result in a big carbon footprint of the final product. At present companies and industries aspire to calculate their gas emissions into the atmosphere in order to afterwards reduce atmospheric contamination. One of the approaches allowing to increase carbon burden from the pulp and paper manufacture is paper recycling. The general purpose of the current paper is to establish methods of quantifying and minimizing the carbon footprint of paper. The first target of this research is to derive a mathematical relationship between virgin fibre requirements with respect to the amount of recycled paper used in the pulp. One more purpose is to establish a model to be used to clarify the contribution of recycling and transportation to decreasing carbon dioxide emissions. For this study sensitivity analysis is used to investigate the robustness of obtained results. The results of the present study show that an increasing of recycling rate does not always lead to minimizing the carbon footprint. Additionally, we derived that transportation of waste paper throughout distances longer than 5800 km has no sense because the use of that paper will only increase carbon dioxide emissions and it is better to reject recycling at all. Finally, we designed the model for organization of a new supply chain of paper product to a customer. The models were implemented as reusable MATLAB frameworks.
Resumo:
This study uses the Life Cycle Assessment (LCA) methodology to evaluate and compare the environmental impacts caused by both the artisanal and the industrial manufacturing processes of "Minas cheese". This is a traditional cheese produced in the state of Minas Gerais (Brazil), and it is considered a "cultural patrimony" in the country. The high participation of artisanal producers in the market justifies this research, and this analysis can help the identification of opportunities to improve the environmental performance of several stages of the production system. The environmental impacts caused were also assessed and compared. The functional unit adopted was 1 kilogram (Kg) of cheese. The system boundaries considered were the production process, conservation of product (before sale), and transport to consumer market. The milk production process was considered similar in both cases, and therefore it was not included in the assessment. The data were collected through interviews with the producers, observation, and a literature review; they were ordered and processed using the SimaPro 7 LCA software. According to the impact categories analyzed, the artisanal production exerted lower environmental impacts. This can be justified mainly because the industrial process includes the pasteurization stage, which uses dry wood as an energy source and refrigeration.
Resumo:
The present world energy production is heavily relying on the combustion of solid fuels like coals, peat, biomass, municipal solid waste, whereas the share of renewable fuels is anticipated to increase in the future to mitigate climate change. In Finland, peat and wood are widely used for energy production. In any case, the combustion of solid fuels results in generation of several types of thermal conversion residues, such as bottom ash, fly ash, and boiler slag. The predominant residue type is determined by the incineration technology applied, while its composition is primarily relevant to the composition of fuels combusted. An extensive research has been conducted on technical suitability of ash for multiple recycling methods. Most of attention was drawn to the recycling of the coal combustion residues, as coal is the primary solid fuel consumed globally. The recycling methods of coal residues include utilization in a cement industry, in concrete manufacturing, and mine backfilling, to name few. Biomass combustion residues were also studied to some extent with forest fertilization, road construction, and road stabilization being the predominant utilization options. Lastly, residues form municipal solid waste incineration attracted more attention recently following the growing number of waste incineration plants globally. The recycling methods of waste incineration residues are the most limited due to its hazardous nature and varying composition, and include, among others, landfill construction, road construction, mine backfilling. In the study, environmental and economic aspects of multiple recycling options of thermal conversion residues generated within a case-study area were studied. The case-study area was South-East Finland. The environmental analysis was performed using an internationally recognized methodology — life cycle assessment. Economic assessment was conducted applying a widely used methodology — cost-benefit analysis. Finally, the results of the analyses were combined to enable easier comparison of the recycling methods. The recycling methods included the use of ash in forest fertilization, road construction, road stabilization, and landfill construction. Ash landfilling was set as a baseline scenario. Quantitative data about the amounts of ash generated and its composition was obtained from companies, their environmental reports, technical reports and other previously published literature. Overall, the amount of ash in the case-study area was 101 700 t. However, the data about 58 400 t of fly ash and 35 100 t of bottom ash and boiler slag were included in the study due to lack of data about leaching of heavy metals in some cases. The recycling methods were modelled according to the scientific studies published previously. Overall, the results of the study indicated that ash utilization for fertilization and neutralization of 17 600 ha of forest was the most economically beneficial method, which resulted in the net present value increase by 58% compared to ash landfilling. Regarding the environmental impact, the use of ash in the construction of 11 km of roads was the most attractive method with decreased environmental impact of 13% compared to ash landfilling. The least preferred method was the use of ash for landfill construction since it only enabled 11% increase of net present value, while inducing additional 1% of negative impact on the environment. Therefore, a following recycling route was proposed in the study. Where possible and legally acceptable, recycle fly and bottom ash for forest fertilization, which has strictest requirements out of all studied methods. If the quality of fly ash is not suitable for forest fertilization, then it should be utilized, first, in paved road construction, second, in road stabilization. Bottom ash not suitable for forest fertilization, as well as boiler slag, should be used in landfill construction. Landfilling should only be practiced when recycling by either of the methods is not possible due to legal requirements or there is not enough demand on the market. Current demand on ash and possible changes in the future were assessed in the study. Currently, the area of forest fertilized in the case-study are is only 451 ha, whereas about 17 600 ha of forest could be fertilized with ash generated in the region. Provided that the average forest fertilizing values in Finland are higher and the area treated with fellings is about 40 000 ha, the amount of ash utilized in forest fertilization could be increased. Regarding road construction, no new projects launched by the Center of Economic Development, Transport and the Environment in the case-study area were identified. A potential application can be found in the construction of private roads. However, no centralized data about such projects is available. The use of ash in stabilization of forest roads is not expected to increased in the future with a current downwards trend in the length of forest roads built. Finally, the use of ash in landfill construction is not a promising option due to the reducing number of landfills in operation in Finland.
Resumo:
Affiliation: Zhujun Ao, Éric Cohen & Xiaojian Yao : Département de microbiologie et immunologie, Faculté de Médecine, Université de Montréal
Resumo:
Cette thèse rapporte l’étude des propriétés physicochimiques des nanoparticles polymériques et leur impact sur l’interaction avec les cellules vivantes. Nous nous sommes tout spécialement attachés à étudier l’effet des propriétés adhésives et mécaniques des nanoparticules sur leur capacité de pénétration de la membrane cellulaire. Pour ce faire, nous avons tout d’abord utilisé des nanoparticules d’acide polylactique (PLA) fonctionnalisées en surface avec un ligand des sélectines E et P. Le greffage du ligand sur la particule s’est fait par une nouvelle méthode expérimentale garantissant la présence du ligand à la surface de la particule durant toute sa durée de vie. Cette méthode consiste à mélanger un polymère fonctionnalisé avec le ligand avec un autre polymère non fonctionnalisé. La présence du ligand à la surface des nanoparticules formées à partir de ce mélange de polymères a été confirmée par analyse ToF SIMS. Nous avons pu prouver que les particules possédant le ligand greffé à leur surface démontraient une capacité adhésive supérieure à leurs homologues non fonctionnalisés sur des cellules endothéliales HUVEC activées par différentes drogues. De plus, le captage des particules par les cellules HUVEC est modulé par le niveau d’expression des récepteurs selectine E et P et aussi par la quantité de ligand libre. Ces résultats montrent clairement que le greffage du ligand confère aux particules des propriétés adhésives accrues et spécifiques ce qui permet leur usage postérieure comme vecteur pharmaceutique capable de cibler un récepteur particulier à la surface d’une cellule. Nous avons aussi démontré que l’interaction entre les nanoparticules et la membrane cellulaire peut aussi être contrôlée aussi bien par les propriétés mécaniques de la cellule que de la nanoparticule. Dans une première étape, nous avons mesuré à l’aide de l’appareil de forces de surface l’élasticité de cellules macrophagiques déposées sur différents substrats. En contrôlant l’interaction entre la cellule et le substrat sur lequel elle repose nous avons montré qu’il était possible de modifier à ii volonté les propriétés mécaniques cellulaire. Une augmentation de l’élasticité cellulaire s’accompagne d’une augmentation systématique de l’internalisation de nanoparticules de PLA non fonctionnalisées. Ceci suggère un rôle prépondérant des propriétés mécaniques du cortex cellulaire dans le captage des nanoparticules de PLA. Dans une seconde étape, nous avons étudié l’effet des propriétés mécaniques des nanoparticules sur leur capacité de pénétration cellulaire. Pour ce faire, nous avons synthétisé des particules d’hydrogel dont l’élasticité était contrôlée par le degré d’agent réticulant inclus dans leur formulation. Le contrôle des propriétés mécaniques des nanoparticules a été confirmé par la mesure du module de Young des particules par microscopie de force atomique. L’impact des propriétés mécaniques de ces particules sur leur capacité de pénétration dans les cellules vivantes a été étudié sur des cellules macrophagiques de souris. Les résultats ont montré que la cinétique d’internalisation, la quantité de particules internalisées et le mécanisme d’internalisation dépendent tous du module de Young des nanoparticules. Aucune différence dans le trajet intracellulaire des particules n’a pu être observée malgré le fait que différentes voies d’internalisation aient été observées. Ce dernier résultat peut s’expliquer par le fait que les nanoparticules sont internalisées par plusieurs voie simultanément ce qui facilite leur accumulation dans les organelles digestives intracellulaires. Un modèle simple permettant d’expliquer ces résultats a été proposé et discuté.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les cellules T CD4+ humaines sont hétérogènes du point de vue de la permissivité à l’infection par le virus de l’immunodéficience humaine de type 1 (VIH-1). Notre laboratoire a préalablement démontré que les cellules Th1 à phénotype CXCR3+CCR6- sont relativement résistantes à l’infection par le VIH-1 alors que les cellules Th1Th17 à phénotype CXCR3+CCR6+ y sont hautement permissives. La réplication du VIH dépend de plusieurs facteurs cellulaires de restriction ou de permissivité agissant à différentes étapes du cycle viral. Toutefois, malgré plusieurs avancées, la compréhension des voies de signalisation cellulaire impliquées dans la régulation de la réplication du VIH est encore limitée. L’objectif majeur de ce projet de maîtrise est de caractériser les mécanismes moléculaires de la permissivité et de la résistance au VIH respectivement dans les cellules Th1Th17 et Th1. Ce mémoire est divisé en quatre parties qui visent: (i) l’identification des voies canoniques et des fonctions biologiques différemment régulées dans les cellules Th1Th17 versus Th1 par l’analyse de leur transcriptome au niveau du génome entier; (ii) la validation de l’expression différentielle des gènes d’intérêt identifiés par biopuces au niveau des transcrits et des protéines; (iii) la caractérisation du rôle fonctionnel de certains de ces facteurs (i.e., PPARG, AhR) sur la réplication du VIH dans les cellules Th1Th17 versus Th1; et (iv) l’identification du niveau auquel ces facteurs interfèrent avec le cycle de réplication du VIH. Nos résultats d’analyse du transcriptome du génome entier par Gene Set Enrichment Analysis et Ingenuity Pathway Analysis indiquent que les cellules à profil Th1Th17 sont plus susceptibles à l’activation cellulaire et à l’apoptose, favorisent plus l’inflammation et expriment moins fortement les gènes liés à la dégradation protéosomale comparé aux cellules à profil Th1. Ces différences dans la régulation de diverses voies et fonctions biologiques permettent en partie d’expliquer la susceptibilité à l’infection par le VIH dans ces cellules. Nous avons ensuite confirmé l’expression différentielle de certains gènes d’intérêt dans les cellules Th1Th17 (CXCR6, PPARG, ARNTL, CTSH, PTPN13, MAP3K4) versus Th1 (SERPINB6, PTK2) au niveau de l’ARNm et des protéines. Finalement, nous avons démontré le rôle des facteurs de transcription PPARG et AhR dans la régulation de la réplication du VIH. L’activation de la voie PPARG par la rosiglitazone induit la diminution importante de la réplication du VIH dans les cellules T CD4+, alors que l’activation de la voie AhR par les ligands exogènes TCDD et FICZ augmente de façon significative la réplication virale. Nous proposons que la voie PPARG agit comme un régulateur négatif de la réplication du VIH dans ces cellules, en interférant avec la polarisation Th17 et probablement en inhibant l’activité transcriptionnelle du facteur NF-kB. Les rôles des formes nucléaires versus cytoplasmiques du récepteur Ahr semblent être diamétralement opposés, dans la mesure où l’interférence ARN contre AhR s’associe également à l’augmentation de la réplication virale. Il est ainsi possible que la forme cytoplasmique d’AhR, connue par son activité E3 ligase, participe à la dégradation protéosomale des particules virales. Le mécanisme par lequel le AhR nucléaire versus cytoplasmique interfère avec la réplication virale est en cours d’étude au laboratoire. Cette étude représente la première caractérisation de l’expression différentielle de gènes au niveau du génome entier de sous-populations T CD4+ permissives versus résistantes à l’infection par le VIH. Nos résultats identifient de nouvelles cibles moléculaires pour de nouvelles stratégies thérapeutiques visant à limiter la réplication du VIH dans les lymphocytes T CD4+ primaires.
Resumo:
La réplication et l’assemblage du virus de l’hépatite C (VHC) sont régulés finement dans le temps et l’espace par les interactions protéiques entre le virus avec l’hôte. La compréhension de la biologie du virus ainsi que sa pathogénicité passe par les connaissances relatives aux interactions virus/hôte. Afin d’identifier ces interactions, nous avons exploité une approche d’immunoprécipitation (IP) couplée à une détection par spectrométrie de masse (MS), pour ensuite évaluer le rôle des protéines identifiées dans le cycle viral par une technique de silençage génique. Les protéines virales Core, NS2, NS3/4A, NS4B, NS5A et NS5B ont été exprimées individuellement dans les cellules humaines 293T et immunoprécipitées afin d’isoler des complexes protéiques qui ont été soumis à l’analyse MS. Ainsi, 98 protéines de l’hôte ont été identifiées avec un enrichissement significatif et illustrant une spécificité d’interaction. L’enrichissement de protéines connues dans la littérature a démontré la force de l’approche, ainsi que la validation de 6 nouvelles interactions virus/hôte. Enfin, le rôle de ces interactants sur la réplication virale a été évalué dans un criblage génomique par ARN interférant (ARNi). Deux systèmes rapporteurs de la réplication virale ont été utilisés : le système de réplicon sous-génomique (Huh7-Con1-Fluc) et le système infectieux (J6/JFH-1/p7Rluc2a), ainsi qu’un essai de toxicité cellulaire (Alamar Blue). Parmi les protéines de l’hôte interagissant avec le VHC, 28 protéines ont démontré un effet significatif sans effet de toxicité cellulaire, suggérant fortement un rôle dans la réplication du VHC. Globalement, l’étude a mené à l’identification de nouvelles interactions virus/hôte et l’identification de nouvelles cibles thérapeutiques potentielles.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Cette recherche-action participative s’inscrit dans un paradigme féministe intersectionnelle. Elle présente la façon dont sept jeunes femmes de la rue (18-23 ans) de Québec ont fait l’expérience de la violence structurelle et ont déployé des stratégies pour y faire face. Elle s’articule autour d’une définition de la violence structurelle inspirée de celle proposée par Farmer, Bourgois, Scheper-Hugues et al. (2004) qui la présentent comme étant le processus à la racine des inégalités sociales et de l’oppression vécue par différents groupes sociaux. Ce processus s’opère dans trois dimensions complémentaires soit : 1) la domination symbolique, 2) la violence institutionnelle et 3) la violence quotidienne. Une analyse de contenu thématique a permis de dégager l’expérience des participantes dans chacune de ces dimensions. L’analyse de la domination symbolique a montré que les participantes ont été perçues à travers le prisme de quatre visions ou préjugés : 1) l’image de la jeune délinquante (Bad girl), 2) le discours haineux envers les personnes assistées sociales, 3) la culture du viol et 4) l’hétéronormativité. Les différentes expériences de violence quotidienne et institutionnelle vécues par les participantes peuvent être mises en lien avec ces manifestations de la domination symbolique. Les participantes ont expérimenté la violence institutionnelle à travers leurs trajectoires au sein des services de protection de l’enfance, durant leurs démarches pour obtenir un emploi, un logement ou du soutien financier de la part des programmes offerts par l’État et pendant leurs demandes d’aide auprès d’organismes communautaires ou d’établissements du réseau de la santé et des services sociaux. L’analyse de l’expérience des participantes a permis de révéler deux processus imbriqués de façon cyclique de violence structurelle : l’exclusion et le contrôle social. La plupart des stratégies ii expérimentées par les participantes pour combler leurs besoins fondamentaux les ont exposées au contrôle social. Le contrôle social a exacerbé les difficultés financières des participantes et a accru leur crainte de subir de l’exclusion. Bien que la violence structurelle expérimentée par les participantes se situe à la croisée des rapports de pouvoir liée au genre, à la classe sociale, à l’âge et à l’orientation sexuelle, il se dégage que la domination masculine s’est traduite dans le quotidien des participantes, car l’exclusion et le contrôle social ont créé des contextes où elles ont été susceptibles de subir une agression sexuelle ou de vivre de la violence de la part d’un partenaire intime. L’analyse de la dimension intersubjective de la grille d’analyse de Yuval-Davis (2006) montre la présence de certains rapports de pouvoir liés à la classe sociale au sein même de la population des jeunes de la rue. Cette analyse souligne également la difficulté des participantes à définir les contours de la violence et d’adopter des rapports égalitaires avec les hommes. Enfin, le processus de recherche-action participative expérimenté dans le cadre de cette thèse a été analysé à partir des critères de scientificité présentés par Reason et Bradbury (2001). L’élaboration de deux projets photos, choisis par le groupe en guise de stratégie de lutte contre la violence structurelle, a contribué à ouvrir le dialogue avec différents acteurs concernés par la violence structurelle envers les jeunes femmes de la rue et s’est inscrit dans une perspective émancipatoire.
Resumo:
This thesis Entitled studies on the macrobenthic community of cochin backwaters with special reference to culture of eriopisa chilkensis (Gammaridae- amphipoda).Benthic organisms are usually studied for environmental impact assessment, pollution control and resource conservation. The benthic monitoring component has three major objectives: 1) characterize the benthic communities to assess the estuarine health, 2) determine seasonal and spatial variability in benthic communities, and 3) detect changes in the estuarine community through examination of changes in abundances of specific indicator taxa and other standard benthic indices.Cochin backwaters situated at the tip of the northern Vembanad lake is a tropical positive estuarine system. The backwaters of Kerala support as much biological productivity and diversity as tropical rain forest and are responsible for the rich fishery potential of Kerala. Backwaters also act as nursery grounds for commercially important prawns and fishes.The thesis has been subdivided into seven chapters. The first chapter gives a general introduction about the topic and also highlights the scope and purpose of the study. The second chapter covers the methodology adopted for the collection and analysis of water quality parameters, sediment and the macrobenthic fauna.Chapter 3 deals with hydrographic features, sediment characteristics and the spatial variation and abundance of macrobenthic fauna in the Cochin estuary.Chapter 4 explains the impact of organic enrichment on macrobenthic popUlation in the Cochin estuary and includes the comparison of the present data with the earlier work in this region.Chapter 5 deals with seasonal variability in abundance of macrobenthic species in the estuary. The study was conducted from 9 stations during three seasons (pre-monsoon, monsoon and post-monsoon) in 2003.Chapter 6 deals with Life history and Population Dynamics of Eriopisa chilkensis Chilton (Gammaridae-Amphipoda). The life cycle of the gammarid amphipod Eriopisa chilkensis from the Cochin estuary, south west coast of India was studied for the first time under laboratory conditions.
Resumo:
The country has witnessed tremendous increase in the vehicle population and increased axle loading pattern during the last decade, leaving its road network overstressed and leading to premature failure. The type of deterioration present in the pavement should be considered for determining whether it has a functional or structural deficiency, so that appropriate overlay type and design can be developed. Structural failure arises from the conditions that adversely affect the load carrying capability of the pavement structure. Inadequate thickness, cracking, distortion and disintegration cause structural deficiency. Functional deficiency arises when the pavement does not provide a smooth riding surface and comfort to the user. This can be due to poor surface friction and texture, hydro planning and splash from wheel path, rutting and excess surface distortion such as potholes, corrugation, faulting, blow up, settlement, heaves etc. Functional condition determines the level of service provided by the facility to its users at a particular time and also the Vehicle Operating Costs (VOC), thus influencing the national economy. Prediction of the pavement deterioration is helpful to assess the remaining effective service life (RSL) of the pavement structure on the basis of reduction in performance levels, and apply various alternative designs and rehabilitation strategies with a long range funding requirement for pavement preservation. In addition, they can predict the impact of treatment on the condition of the sections. The infrastructure prediction models can thus be classified into four groups, namely primary response models, structural performance models, functional performance models and damage models. The factors affecting the deterioration of the roads are very complex in nature and vary from place to place. Hence there is need to have a thorough study of the deterioration mechanism under varied climatic zones and soil conditions before arriving at a definite strategy of road improvement. Realizing the need for a detailed study involving all types of roads in the state with varying traffic and soil conditions, the present study has been attempted. This study attempts to identify the parameters that affect the performance of roads and to develop performance models suitable to Kerala conditions. A critical review of the various factors that contribute to the pavement performance has been presented based on the data collected from selected road stretches and also from five corporations of Kerala. These roads represent the urban conditions as well as National Highways, State Highways and Major District Roads in the sub urban and rural conditions. This research work is a pursuit towards a study of the road condition of Kerala with respect to varying soil, traffic and climatic conditions, periodic performance evaluation of selected roads of representative types and development of distress prediction models for roads of Kerala. In order to achieve this aim, the study is focused into 2 parts. The first part deals with the study of the pavement condition and subgrade soil properties of urban roads distributed in 5 Corporations of Kerala; namely Thiruvananthapuram, Kollam, Kochi, Thrissur and Kozhikode. From selected 44 roads, 68 homogeneous sections were studied. The data collected on the functional and structural condition of the surface include pavement distress in terms of cracks, potholes, rutting, raveling and pothole patching. The structural strength of the pavement was measured as rebound deflection using Benkelman Beam deflection studies. In order to collect the details of the pavement layers and find out the subgrade soil properties, trial pits were dug and the in-situ field density was found using the Sand Replacement Method. Laboratory investigations were carried out to find out the subgrade soil properties, soil classification, Atterberg limits, Optimum Moisture Content, Field Moisture Content and 4 days soaked CBR. The relative compaction in the field was also determined. The traffic details were also collected by conducting traffic volume count survey and axle load survey. From the data thus collected, the strength of the pavement was calculated which is a function of the layer coefficient and thickness and is represented as Structural Number (SN). This was further related to the CBR value of the soil and the Modified Structural Number (MSN) was found out. The condition of the pavement was represented in terms of the Pavement Condition Index (PCI) which is a function of the distress of the surface at the time of the investigation and calculated in the present study using deduct value method developed by U S Army Corps of Engineers. The influence of subgrade soil type and pavement condition on the relationship between MSN and rebound deflection was studied using appropriate plots for predominant types of soil and for classified value of Pavement Condition Index. The relationship will be helpful for practicing engineers to design the overlay thickness required for the pavement, without conducting the BBD test. Regression analysis using SPSS was done with various trials to find out the best fit relationship between the rebound deflection and CBR, and other soil properties for Gravel, Sand, Silt & Clay fractions. The second part of the study deals with periodic performance evaluation of selected road stretches representing National Highway (NH), State Highway (SH) and Major District Road (MDR), located in different geographical conditions and with varying traffic. 8 road sections divided into 15 homogeneous sections were selected for the study and 6 sets of continuous periodic data were collected. The periodic data collected include the functional and structural condition in terms of distress (pothole, pothole patch, cracks, rutting and raveling), skid resistance using a portable skid resistance pendulum, surface unevenness using Bump Integrator, texture depth using sand patch method and rebound deflection using Benkelman Beam. Baseline data of the study stretches were collected as one time data. Pavement history was obtained as secondary data. Pavement drainage characteristics were collected in terms of camber or cross slope using camber board (slope meter) for the carriage way and shoulders, availability of longitudinal side drain, presence of valley, terrain condition, soil moisture content, water table data, High Flood Level, rainfall data, land use and cross slope of the adjoining land. These data were used for finding out the drainage condition of the study stretches. Traffic studies were conducted, including classified volume count and axle load studies. From the field data thus collected, the progression of each parameter was plotted for all the study roads; and validated for their accuracy. Structural Number (SN) and Modified Structural Number (MSN) were calculated for the study stretches. Progression of the deflection, distress, unevenness, skid resistance and macro texture of the study roads were evaluated. Since the deterioration of the pavement is a complex phenomena contributed by all the above factors, pavement deterioration models were developed as non linear regression models, using SPSS with the periodic data collected for all the above road stretches. General models were developed for cracking progression, raveling progression, pothole progression and roughness progression using SPSS. A model for construction quality was also developed. Calibration of HDM–4 pavement deterioration models for local conditions was done using the data for Cracking, Raveling, Pothole and Roughness. Validation was done using the data collected in 2013. The application of HDM-4 to compare different maintenance and rehabilitation options were studied considering the deterioration parameters like cracking, pothole and raveling. The alternatives considered for analysis were base alternative with crack sealing and patching, overlay with 40 mm BC using ordinary bitumen, overlay with 40 mm BC using Natural Rubber Modified Bitumen and an overlay of Ultra Thin White Topping. Economic analysis of these options was done considering the Life Cycle Cost (LCC). The average speed that can be obtained by applying these options were also compared. The results were in favour of Ultra Thin White Topping over flexible pavements. Hence, Design Charts were also plotted for estimation of maximum wheel load stresses for different slab thickness under different soil conditions. The design charts showed the maximum stress for a particular slab thickness and different soil conditions incorporating different k values. These charts can be handy for a design engineer. Fuzzy rule based models developed for site specific conditions were compared with regression models developed using SPSS. The Riding Comfort Index (RCI) was calculated and correlated with unevenness to develop a relationship. Relationships were developed between Skid Number and Macro Texture of the pavement. The effort made through this research work will be helpful to highway engineers in understanding the behaviour of flexible pavements in Kerala conditions and for arriving at suitable maintenance and rehabilitation strategies. Key Words: Flexible Pavements – Performance Evaluation – Urban Roads – NH – SH and other roads – Performance Models – Deflection – Riding Comfort Index – Skid Resistance – Texture Depth – Unevenness – Ultra Thin White Topping
Resumo:
El presente trabajo se centra en el fenómeno de la internacionalización dentro del sector petrolero. Para esto, se escogió a tres empresas: Ecopetrol, por ser la empresa colombiana más grande; Petrobras, el mayor representante de Latinoamérica; y Exxon Mobil, un gigante del petróleo a nivel mundial. Estas empresas, que se encuentran en diferentes etapas dentro de su proceso de la internacionalización, muestran comportamientos estratégicos similares. Son precisamente estas similitudes las que permitieron proponer un modelo de internacionalización generalizado para las diferentes empresas que componen dicho sector económico. Para alcanzar dicho modelo, se recurrió a diferentes teorías de internacionalización desarrolladas por varias escuelas de negocios en el mundo, tales como el Modelo Ecléctico, el de Uppsala o la Teoría de Redes. Cabe destacar que dicho modelo propuesto es una aproximación teórica a la realidad empresarial de las compañías petroleras, usando como marco de referencia una muestra pequeña de este tipo de organizaciones. Dentro de este modelo, los altos matices de complejidad propios del fenómeno de la internacionalización se ven reducidos de manera considerable, como parte del ejercicio académico propuesto en el presente estudio.