940 resultados para Emissions to propagate


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This chapter presents possible uses and examples of Monte Carlo methods for the evaluation of uncertainties in the field of radionuclide metrology. The method is already well documented in GUM supplement 1, but here we present a more restrictive approach, where the quantities of interest calculated by the Monte Carlo method are estimators of the expectation and standard deviation of the measurand, and the Monte Carlo method is used to propagate the uncertainties of the input parameters through the measurement model. This approach is illustrated by an example of the activity calibration of a 103Pd source by liquid scintillation counting and the calculation of a linear regression on experimental data points. An electronic supplement presents some algorithms which may be used to generate random numbers with various statistical distributions, for the implementation of this Monte Carlo calculation method.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

It is well established that cytotoxic T lymphocytes play a pivotal role in the protection against intracellular pathogens and tumour cells. Such protective immune responses rely on the specific T cell receptor (TCR)-mediated recognition by CD8 T cells of small antigenic peptides presented in the context of class-I Major Histocompatibility Complex molecules (pMHCs) on the surface of infected or malignant cells. The strength (affinity/avidity) of this interaction is a major correlate of protection. Although tumour-reactive CD8 T cells can be observed in cancer patients, anti-tumour immune responses are often ineffective in controlling or eradicating the disease due to the relative low TCR affinity of these cells. To overcome this limitation, tumour-specific CD8 T cells can be genetically modified to express TCRs of improved binding strength against a defined tumour antigen before adoptive cell transfer into cancer patients. We previously generated a panel of TCRs specific for the cancer-testis antigen NY-ESO-l,57.165 with progressively increased affinities for the pMHC complex, thus providing us with a unique tool to investigate the causal link between the surface expression of such TCRs and T cell activation and function. We recently demonstrated that anti-tumour CD8 T cell reactivity could only be improved within physiological affinity limits, beyond which drastic functional declines were observed, suggesting the presence of multiple regulatory mechanisms limiting T cell activation and function in a TCR affinity-dependent manner. The overarching goal of this thesis was (i) to assess the precise impact of TCR affinity on T cell activation and signalling at the molecular level and (ii) to gain further insights on the mechanisms that regulate and delimitate maximal/optimized CD8 T cell activation and signalling. Specifically, by combining several technical approaches we characterized the activation status of proximal (i.e. CD3Ç, Lek, and ZAP-70) and distal (i.e. ERK1/2) signalling molecules along the TCR affinity gradient. Moreover, we assessed the extent of TCR downmodulation, a critical step for initial T cell activation. CD8 T cells engineered with the optimal TCR affinity variants showed increased activation levels of both proximal and distal signalling molecules when compared to the wild-type T cells. Our analyses also highlighted the "paradoxical" status of tumour-reactive CD8 T cells bearing very high TCR affinities, which retained strong proximal signalling capacity and TCR downmodulation, but were unable to propagate signalling distally (i.e. pERKl/2), resulting in impaired cell-mediated functions. Importantly, these very high affinity T cells displayed maximal levels of SHP-1 and SHP-2 phosphatases, two negative regulatory molecules, and this correlated with a partial pERKl/2 signalling recovery upon pharmacological SHP-l/SHP-2 inhibition. These findings revealed the putative presence of inhibitory regulators of the TCR signalling cascade acting very rapidly following tumour-specific stimulation. Moreover, the very high affinity T cells were only able to transiently express enhanced proximal signalling molecules, suggesting the presence of an additional level of regulation that operates through the activation of negative feedback loops over time, limiting the duration of the TCR-mediated signalling. Overall, the determination of TCR-pMHC binding parameters eliciting optimal CD8 T cell activation, signalling, and effector function while guaranteeing high antigen specificity, together with the identification of critical regulatory mechanisms acting proximally in the TCR signalling cascade, will directly contribute to optimize and support the development of future TCR-based adoptive T cell strategies for the treatment of malignant diseases. -- Les lymphocytes T CD8 cytotoxiques jouent un rôle prédominant dans la protection contre les pathogènes intracellulaires et les cellules tumorales. Ces réponses immunitaires dépendent de la spécificité avec laquelle les récepteurs T (TCR) des lymphocytes CD8 reconnaissent les peptides antigéniques présentés par les molécules du complexe Majeur de Histocompatibilité de classe I (pCMH) à la surface des cellules infectées ou malignes. La force (ou affinité/avidité) de l'interaction du TCR-pCMH est un corrélat majeur de protection. Les réponses immunitaires sont cependant souvent inefficaces et ne permettent pas de contrôler ou d'éliminer les cellules tumorales chez les patients atteint du cancer, et ce à cause de la relative faible reconnaissance des TCRs exprimés par les lymphocytes T CD8 envers les antigènes tumoraux. Afin de surmonter cette limitation, les cellules T anti-tumorales peuvent être génétiquement modifiées en les dotant de TCRs préalablement optimisés afin d'augmenter leur reconnaissance ou affinité contre les antigènes tumoraux, avant leur ré¬infusion dans le patient. Nous avons récemment généré des cellules T CD8 exprimant un panel de TCRs spécifiques pour l'antigène tumoral NY-ESO-l157.16J avec des affinités croissantes, permettant ainsi d'investiguer la causalité directe entre l'affinité du TCR-pCMH et la fonction des cellules T CD8. Nous avons démontré que la réactivité anti-tumorale pouvait être améliorée en augmentant l'affinité du TCR dans une intervalle physiologique, mais au delà duquel nous observons un important déclin fonctionnel. Ces résultats suggèrent la présence de mécanismes de régulation limitant l'activation des cellules T de manière dépendante de l'affinité du TCR. Le but de cette thèse a été (i) de définir l'impact précis de l'affinité du TCR sur l'activation et la signalisation des cellules T CD8 au niveau moléculaire et (ii) d'acquérir de nouvelles connaissances sur les mécanismes qui régulent et délimitent l'activation et la signalisation maximale des cellules T CD8 optimisées. Spécifiquement, en combinant plusieurs approches technologiques, nous avons caractérisé l'état d'activation de différentes protéines de la voie de signalisation proximale (CD3Ç, Lek et ZAP-70) et distale (ERK1/2) le long du gradient d'affinité du TCR, ainsi que l'internalisation du TCR, une étape clef dans l'activation initiale des cellules T. Les lymphocytes T CD8 exprimant des TCRs d'affinité optimale ont montré des niveaux d'activation augmentés des molécules proximales et distales par rapport aux cellules de type sauvage (wild-type). Nos analyses ont également mis en évidence un paradoxe chez les cellules T CD8 équipées avec des TCRs de très haute affinité. En effet, ces cellules anti-tumorales sont capables d'activer leurs circuits biochimiques au niveau proximal et d'internaliser efficacement leur TCR, mais ne parviennent pas à propager les signaux biochimiques dépendants du TCR jusqu'au niveau distal (via phospho-ERKl/2), avec pour conséquence une limitation de leur capacité fonctionnelle. Finalement, nous avons démontré que SHP-1 et SHP-2, deux phosphatases avec des propriétés régulatrices négatives, étaient majoritairement exprimées dans les cellules T CD8 de très hautes affinités. Une récupération partielle des niveaux d'activation de ERK1/2 a pu être observée après l'inhibition pharmacologique de ces phosphatases. Ces découvertes révèlent la présence de régulateurs moléculaires qui inhibent le complexe de signalisation du TCR très rapidement après la stimulation anti-tumorale. De plus, les cellules T de très hautes affinités ne sont capables d'activer les molécules de la cascade de signalisation proximale que de manière transitoire, suggérant ainsi un second niveau de régulation via l'activation de mécanismes de rétroaction prenant place progressivement au cours du temps et limitant la durée de la signalisation dépendante du TCR. En résumé, la détermination des paramètres impliqués dans l'interaction du TCR-pCMH permettant l'activation de voies de signalisation et des fonctions effectrices optimales ainsi que l'identification des mécanismes de régulation au niveau proximal de la cascade de signalisation du TCR contribuent directement à l'optimisation et au développement de stratégies anti-tumorales basées sur l'ingénierie des TCRs pour le traitement des maladies malignes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Limited evidence exists to suggest that the ability to invade and escape protozoan host cell bactericidal activity extends to members of the Chlamydiaceae, intracellular pathogens of humans and animals and evolutionary descendants of amoeba-resisting Chlamydia-like organisms. PCR and microscopic analyses of Chlamydophila abortus infections of Acanthamoeba castellani revealed uptake of this chlamydial pathogen but, unlike the well-described inhabitant of A. castellani, Parachlamydia acanthamoebae, Cp. abortus did not appear to propagate and is likely digested by its amoebal host. These data raise doubts about the ability of free-living amoebae to serve as hosts and vectors of pathogenic members of the Chlamydiaceae but reveal opportunities, via comparative genomics, to understand virulence mechanisms used by Chlamydia-like organisms to avoid amoebal digestion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper reviews the history of Hg contamination in Brazil by characterizing and quantifying two major sources of Hg emissions to the environment: industrial sources and gold mining. Industry was responsible for nearly 100% of total Hg emissions from the late 1940's to the early 1970's, when efficient control policies were enforced, leading to a decrease in emissions. Gold mining, on the other hand was nearly insignificant as a Hg source up to the late 1970's, but presently is responsible for over 80% of total emissions. Presently, over 115 tons of Hg are released into the atmosphere in Brazil annually. Nearly 78 tons come from gold mining operations, 12 tons come from chlor-alkali industry and 25 tons come from all other industrial uses. Inputs to soils and waters however, are still unknown, due to lack of detailed data base. However, emissions from diffuse sources rather than well studied classical industrial sources are probably responsible for the major inputs of mercury to these compartments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hajupäästöillä tarkoitetaan tavallisesti teollisen toiminnan aiheuttamia hajuaineiden päästöjä ympäristöön. Suomessa ympäristölainsäädäntö ei varsinaisesti kiellä hajuaineiden päästöjä mutta edellyttää kuitenkin, ettei niistä aiheudu merkittävää viihtyvyyshaittaa. Tässä työssä tutkittiin hajupäästöjä Saint-Gobain Rakennustuotteet Oy:n Hyvinkään lasivillatehtaalla. Tavoitteena työssä oli selvittää, mikä on tehtaan aiheuttamien päästöjen hajuvaikutus, ja mitä hajuyhdisteitä valmistusprosessissa muodostuu. Lisäksi työssä selvitettiin miten hajupäästöjä pystyttäisiin vähentämään. Työn kokeellisten tutkimusten aikana kerättiin tietoa hajun esiintymisestä valitulta tarkasteluajanjaksolta sekä mitattiin mm. tehtaan savukaasujen hajupitoisuutta ja koostumusta. Mittauksissa kaasunäytteiden hajupitoisuudeksi saatiin 170 HY/m3, joka kuvaa suhteellisen mietoa hajua. Näytteistä analysoidut haihtuvat orgaaniset yhdisteet olivat suurelta osin peräisin lasivillan valmistuksessa käytetystä sideaineesta, jota lisätään tuotteen joukkoon kuidutusvaiheessa. Ympäristöstä otetuista näytteistä ei kuitenkaan havaittu piipun yhdisteitä, mikä viittaisi siihen, että mittausjaksonaikana tehtaan päästöjen leviäminen ympäristöön on tapahtunut melko pieninä pitoisuuksina. Lisäksi on mahdollista, että ulkoilmassa yhdisteissä tapahtuu kemiallista muutuntaa ja hajontaa, jonka seurauksena yhdisteet muuttuvat. Tehtaan hajuhaitat vaikuttaisivat tutkimustulosten mukaan johtuvan savupainumaksi kutsutusta ilmiöstä. Savupainumaan vaikuttavat kaasun lämpömäärä sekä ympäristön olosuhteet ja topografia. Hajuhaittojen poistamiseksi olisi muodostuvia hajuyhdisteitä pystyttävä vähentämään 95-100 %.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Increasing natural gas use in Brazil triggered a discussion of its role as a Hg source. We show that Hg emissions to the atmosphere from fossil fuel combustion for power generation in Brazil contribute with 6.2% (4.2 t yr-1) to the total anthropogenic Hg atmospheric emissions, with coal combustion and biomass burning as major sources. Natural gas contributes with 0.04 t yr-1, mostly from electricity generation (88%) and industrial uses (7.6%). Preliminary results on Hg concentrations in natural gas suggest that a large fraction of it is trapped during refining and transport, which may create Hg point sources between extraction and consumption.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

ABSTRACTWe aimed to evaluate the technical efficiency of mini-cuttings technique on vegetative propagation of Paulownia fortunei (Seem.) Hemsl. var. Mikado, as well as the possible existence of anatomical barriers to its rooting. Therefore, plants originated from cuttings formed the mini-stumps and, consequently the clonal mini-garden, which was conducted in semi-hydroponic system. We evaluated the survival of mini-stumps and sprouts production for five successive collects, the percentage of mini-cuttings rooting and their anatomical description. The mini-cuttings were prepared with about 6 to 8 cm in length and two leaves reduced by about 50% in the upper third, being remained an area of, approximately 78 cm2 (10 cm diameter). The mini-cuttings were placed in tubes of 53 cm3, with substrate formed with fine vermiculite and carbonized rice hulls (1:1 v/v) and rooted in acclimatized greenhouse. After 30 days we evaluated the percentage of rooted mini-cuttings, radicial vigor (number and length of roots / mini-cutting), callus formation, emission of new shoots and maintenance of the original leaves. The mini-stumps showed 100% survival after five collects and an average production of 76-114 mini-cuttings/m2/month and rooting ranged from 70 to 90%. Mini-cuttings technique is efficient in to propagate adult propagules of the species and there are not anatomical barriers preventing roots emission.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Metsäteollisuudessa on käynnissä rakennemuutos, joka tuo haasteita toimialan ympäristöasioiden hallintaan sekä ympäristölupia myöntävän ja valvovan viranomaisen toimintaan. Lähivuosina tulee myös runsaasti voimaan uutta lainsäädäntöä, joka vaikuttaa metsäteollisuuden ympäristöasioiden hallintaan. Tämän työn tarkoituksena oli arvioida Suomen kemiallisen metsäteollisuuden päästökehitystä vuoteen 2020 huomioiden metsäteollisuuden uusi tuotanto sekä lähivuosina voimaan tuleva ympäristölainsäädäntö, erityisesti päivitettävänä oleva massa- ja paperiteollisuuden BREF-asiakirja. Päästökehitystä arvioitiin viiden skenaarion avulla. Vesistöpäästöjen osalta tarkasteltiin COD- ja AOX-päästöjä sekä typpi- ja fosforipäästöjä, ja ilmapäästöjen osalta sellun tuotannon rikki- ja typpioksidi- sekä hiukkaspäästöjä. Massan- ja paperintuotannon oletettiin pysyvän muutaman prosentin nykyistä tasoa korkeammalla tasolla. Uuden tuotannon osalta kahdessa skenaariossa huomioitiin nestemäisten biopolttoaineiden tuotanto kolmella laitoksella, yhteensä 600 000 t/a. Päästölaskennassa käytettiin päivitettävänä olevan massa- ja paperiteollisuuden BREF-asiakirjan BAT-päätelmissä annettuja luonnoksia uusista päästötasoista. Skenaarioiden pohjalta havaittiin, että massa- ja paperiteollisuuden BAT-päätelmien mukaiset päästötasot eivät tuo merkittäviä muutoksia metsäteollisuuden vesistöpäästöihin vuoteen 2020 mennessä. Biojalosteiden tuotannon vaikutus vesistöpäästöihin todettiin myös hyvin vähäiseksi. Sen sijaan ilmaan johdettavat päästöt pienenevät huomattavasti: hiukkaspäästöt vähenivät 42–50 prosenttia uusien päästötasojen myötä. Biojalosteiden tuotannon vaikutus oli myös merkittävämpi kuin ilmapäästöihin kuin vesistöpäästöihin. Prosentuaalisesti eniten biojalostus lisäsi rikkidioksidipäästöjä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cement industry significantly associated with high greenhouse gas (GHG) emissions. Considering the environmental impact, particularly global warming potential, it is important to reduce these emissions to air. The aim of the study is to investigate the mitigation possibility of GHG emissions in Ethiopian cement industry. Life cycle assessment (LCA) method used to identify and quantify GHG emissions during one ton of ordinary portland cement (OPC) production. Three mitigation scenarios: alternative fuel use, clinker substitution and thermal energy efficiency were applied on a representative gate-to-gate flow model developed with GaBi 6 software. The results of the study indicate that clinker substitution and alternative fuel use play a great role for GHG emissions mitigation with affordable cost. Applying most energy efficient kiln technology, which in turn reduces the amount of thermal energy use, has the least GHG emissions reduction intensity and high implementation cost comparing to the other scenarios. It was found that the cumulative GHG emissions mitigation potential along with other selected mitigation scenarios can be at least 48.9% per ton of cement production.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tässä diplomityössä tutkitaan biomassan esikäsittelyä suurissa voimalaitoksissa. Työssä keskitytään puusta saataviin polttoaineisiin. Biomassan esikäsittely on tärkeä osa voimalaitoksen toimintaa. Sillä pyritään saamaan puulle halutut ominaisuudet loppukäyttöä, kuten polttoa tai kaasutusta varten. Puubiomassan tärkeimpiä ominaisuuksia ovat kosteus, palakoko ja tasalaatuisuus. Työ on jaettu neljään osaan. Ensimmäisessä osassa tutkitaan kiinteän biomassan ominaisuuksia ja ongelmia. Toisessa osassa esitellään erilaisia voimalaitoksissa käytettäviä puubiomassoja ja niiden erityisominaisuuksia ja -vaatimuksia. Kolmannessa osassa esitellään biomassan käsittelyä voimalaitoksella. Käsittely jaotellaan vastaanottoon, esikäsittelyyn, varastointiin ja käsittelylaitteistoihin. Kolmannessa osassa tutkitaan myös käsittelyn erityisvaatimuksia ja esitellään esimerkkejä biomassan kokonaiskäsittelystä laitoksella. Työn neljäs osa paneutuu biomassan käsittelyn turvallisuus- ja ympäristöasioihin. Puubiomassan esikäsittely on suunniteltava käytettävien puulaatujen ja -määrien mukaan. Biomassan kosteuden ollessa korkea, on tutkittava onko kuivurien käyttö kannattavaa ja perusteltua. Jos voimalaitokselle tuleva puu on epätasalaatuista tai sisältää epäpuhtauksia, on käytettävä erilaisia puhdistus- ja murskainlaitteistoja. Biomassan käsittelyssä syntyy melua ja päästöjä. Ympäristö- ja terveyshaittojen ehkäisemiseksi käsittelylaitteistoihin on suunniteltava tarpeelliset suojat ja varojärjestelmät.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tau est une protéine associée aux microtubules enrichie dans l’axone. Dans la maladie d’Alzheimer, Tau devient anormalement hyperphosphorylée, s’accumule dans le compartiment somato-dendritique et s’agrège pour former des enchevêtrements neurofibrillaires (NFTs). Ces NFTs se propagent dans le cerveau dans un ordre bien précis. Ils apparaissent d’abord dans le cortex transenthorinal pour ensuite se propager là où ces neurones projettent, c’est-à-dire au cortex entorhinal. Les NFTs s’étendent ensuite à l’hippocampe puis à différentes régions du cortex et néocortex. De plus, des études récentes ont démontré que la protéine Tau peut être sécrétée par des lignées neuronales et que lorsqu’on injecte des agrégats de Tau dans un cerveau de souris, ceux-ci peuvent pénétrer dans les neurones et induire la pathologie de Tau dans le cerveau. Ces observations ont mené à l’hypothèse que la protéine Tau pathologique pourrait être sécrétée par les neurones, pour ensuite être endocytée par les cellules avoisinantes et ainsi propager la maladie. L’objectif de la présente étude était donc de prouver la sécrétion de la protéine Tau par les neurones et d’identifier par quelle voie elle est secrétée. Nos résultats ont permis de démontrer que la protéine Tau est sécrétée par des neurones corticaux de souris de type sauvage ainsi que dans un modèle de surexpression dans des cellules HeLa et PC12. Nos résultats indiquent que la sécrétion de Tau se ferait par les autophagosomes. Finalement, nous avons démontré que la protéine Tau sécrétée est déphosphorylée et clivée par rapport à la protéine Tau intracellulaire non sécrétée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We are in the cutting edge of a new era of development without leaving any promises to next generation. But the scale and size of the problem are only partially blamed. The juggernaut of Globalisation has trampled upon whatever little hope we might have had making a quick transition to a less energy – intensive world. “Environment friendliness begins at home”. Our quest for productivity and profitability should progress simultaneous with our cooperative responsibility of leaving behind a clean and green earth for the generation to come. Climate change is the most pressing global environmental challenge being faced by humanity, with the quest for better productivity for our fragile ecosystem. It is too late to rely solely on reduction in Green house gas emissions to mitigate climate change although this is undoubtedly crucial. Coastal belts are more prone to these devastating impacts and its protection is an intensive filed of research. The present study describes how the colourful Carotenoids and Chlorophylls can be used in rapid hand on tool in conjunction with molecular biology to open sources and it also explores the fate of organic matter in the aquatic system and underlying sediments.