967 resultados para Non-uniform array
CLARITY and PACT-based imaging of adult zebrafish and mouse for whole-animal analysis of infections.
Resumo:
Visualization of infection and the associated host response has been challenging in adult vertebrates. Owing to their transparency, zebrafish larvae have been used to directly observe infection in vivo; however, such larvae have not yet developed a functional adaptive immune system. Cells involved in adaptive immunity mature later and have therefore been difficult to access optically in intact animals. Thus, the study of many aspects of vertebrate infection requires dissection of adult organs or ex vivo isolation of immune cells. Recently, CLARITY and PACT (passive clarity technique) methodologies have enabled clearing and direct visualization of dissected organs. Here, we show that these techniques can be applied to image host-pathogen interactions directly in whole animals. CLARITY and PACT-based clearing of whole adult zebrafish and Mycobacterium tuberculosis-infected mouse lungs enables imaging of mycobacterial granulomas deep within tissue to a depth of more than 1 mm. Using established transgenic lines, we were able to image normal and pathogenic structures and their surrounding host context at high resolution. We identified the three-dimensional organization of granuloma-associated angiogenesis, an important feature of mycobacterial infection, and characterized the induction of the cytokine tumor necrosis factor (TNF) within the granuloma using an established fluorescent reporter line. We observed heterogeneity in TNF induction within granuloma macrophages, consistent with an evolving view of the tuberculous granuloma as a non-uniform, heterogeneous structure. Broad application of this technique will enable new understanding of host-pathogen interactions in situ.
Resumo:
Oil spills in marine environments often damage marine and coastal life if not remediated rapidly and efficiently. In spite of the strict enforcement of environmental legislations (i.e., Oil Pollution Act 1990) following the Exxon Valdez oil spill (June 1989; the second biggest oil spill in U.S. history), the Macondo well blowout disaster (April 2010) released 18 times more oil. Strikingly, the response methods used to contain and capture spilled oil after both accidents were nearly identical, note that more than two decades separate Exxon Valdez (1989) and Macondo well (2010) accidents.
The goal of this dissertation was to investigate new advanced materials (mechanically strong aerogel composite blankets-Cabot® Thermal Wrap™ (TW) and Aspen Aerogels® Spaceloft® (SL)), and their applications for oil capture and recovery to overcome the current material limitations in oil spill response methods. First, uptake of different solvents and oils were studied to answer the following question: do these blanket aerogel composites have competitive oil uptake compared to state-of-the-art oil sorbents (i.e., polyurethane foam-PUF)? In addition to their competitive mechanical strength (766, 380, 92 kPa for Spaceloft, Thermal Wrap, and PUF, respectively), our results showed that aerogel composites have three critical advantages over PUF: rapid (3-5 min.) and high (more than two times of PUF’s uptake) oil uptake, reusability (over 10 cycles), and oil recoverability (up to 60%) via mechanical extraction. Chemical-specific sorption experiments showed that the dominant uptake mechanism of aerogels is adsorption to the internal surface, with some contribution of absorption into the pore space.
Second, we investigated the potential environmental impacts (energy and chemical burdens) associated with manufacturing, use, and disposal of SL aerogel and PUF to remove the oil (i.e., 1 m3 oil) from a location (i.e., Macondo well). Different use (single and multiple use) and end of life (landfill, incinerator, and waste-to-energy) scenarios were assessed, and our results demonstrated that multiple use, and waste-to-energy choices minimize the energy and material use of SL aerogel. Nevertheless, using SL once and disposing via landfill still offers environmental and cost savings benefits relative to PUF, and so these benefits are preserved irrespective of the oil-spill-response operator choices.
To inform future aerogel manufacture, we investigated the different laboratory-scale aerogel fabrication technologies (rapid supercritical extraction (RSCE), CO2 supercritical extraction (CSCE), alcohol supercritical extraction (ASCE)). Our results from anticipatory LCA for laboratory-scaled aerogel fabrication demonstrated that RSCE method offers lower cumulative energy and ecotoxicity impacts compared to conventional aerogel fabrication methods (CSCE and ASCE).
The final objective of this study was to investigate different surface coating techniques to enhance oil recovery by modifying the existing aerogel surface chemistries to develop chemically responsive materials (switchable hydrophobicity in response to a CO2 stimulus). Our results showed that studied surface coating methods (drop casting, dip coating, and physical vapor deposition) were partially successful to modify surface with CO2 switchable chemical (tributylpentanamidine), likely because of the heterogeneous fiber structure of the aerogel blankets. A possible solution to these non-uniform coatings would be to include switchable chemical as a precursor during the gel preparation to chemically attach the switchable chemical to the pores of the aerogel.
Taken as a whole, the implications of this work are that mechanical deployment and recovery of aerogel composite blankets is a viable oil spill response strategy that can be deployed today. This will ultimately enable better oil uptake without the uptake of water, potential reuse of the collected oil, reduced material and energy burdens compared to competitive sorbents (e.g., PUF), and reduced occupational exposure to oiled sorbents. In addition, sorbent blankets and booms could be deployed in coastal and open-ocean settings, respectively, which was previously impossible.
Stable carbon isotope ratios of carbon dioxide from EDC and Berkner Island ice cores for 40-50 ka BP
Resumo:
The stable carbon isotopic signature of carbon dioxide (d13CO2) measured in the air occlusions of polar ice provides important constraints on the carbon cycle in past climates. In order to exploit this information for previous glacial periods, one must use deep, clathrated ice, where the occluded air is preserved not in bubbles but in the form of air hydrates. Therefore, it must be established whether the original atmospheric d13CO2 signature can be reconstructed from clathrated ice. We present a comparative study using coeval bubbly ice from Berkner Island and ice from the bubble-clathrate transformation zone (BCTZ) of EPICA Dome C (EDC). In the EDC samples the gas is partitioned into clathrates and remaining bubbles as shown by erroneously low and scattered CO2 concentration values, presenting a worst-case test for d13CO2 reconstructions. Even so, the reconstructed atmospheric d13CO2 values show only slightly larger scatter. The difference to data from coeval bubbly ice is statistically significant. However, the 0.16 per mil magnitude of the offset is small for practical purposes, especially in light of uncertainty from non-uniform corrections for diffusion related fractionation that could contribute to the discrepancy. Our results are promising for palaeo-atmospheric studies of d13CO2 using a ball mill dry extraction technique below the BCTZ of ice cores, where gas is not subject to fractionation into microfractures and between clathrate and bubble reservoirs.
Resumo:
Uncertainty in decision-making for patients’ risk of re-admission arises due to non-uniform data and lack of knowledge in health system variables. The knowledge of the impact of risk factors will provide clinicians better decision-making and in reducing the number of patients admitted to the hospital. Traditional approaches are not capable to account for the uncertain nature of risk of hospital re-admissions. More problems arise due to large amount of uncertain information. Patients can be at high, medium or low risk of re-admission, and these strata have ill-defined boundaries. We believe that our model that adapts fuzzy regression method will start a novel approach to handle uncertain data, uncertain relationships between health system variables and the risk of re-admission. Because of nature of ill-defined boundaries of risk bands, this approach does allow the clinicians to target individuals at boundaries. Targeting individuals at boundaries and providing them proper care may provide some ability to move patients from high risk to low risk band. In developing this algorithm, we aimed to help potential users to assess the patients for various risk score thresholds and avoid readmission of high risk patients with proper interventions. A model for predicting patients at high risk of re-admission will enable interventions to be targeted before costs have been incurred and health status have deteriorated. A risk score cut off level would flag patients and result in net savings where intervention costs are much higher per patient. Preventing hospital re-admissions is important for patients, and our algorithm may also impact hospital income.
Resumo:
OBJECTIVES: Radiotherapy is planned to achieve the optimal physical dose distribution to the target tumour volume whilst minimising dose to the surrounding normal tissue. Recent in vitro experimental evidence has demonstrated an important role for intercellular communication in radiobiological responses following non-uniform exposures. This study aimed to model the impact of these effects in the context of techniques involving highly modulated radiation fields or spatially fractionated treatments such as GRID therapy.
METHODS: Using the small animal radiotherapy research platform (SARRP) as a key enabling technology to deliver precision imaged-guided radiotherapy, it is possible to achieve spatially modulated dose distributions that model typical clinical scenarios. In this work, we planned uniform and spatially fractionated dose distributions using multiple isocentres with beam sizes of 0.5 - 5 mm to obtain 50% volume coverage in a subcutaneous murine tumour model, and applied a model of cellular response that incorporates intercellular communication to assess the potential impact of signalling effects with different ranges.
RESULTS: Models of GRID treatment plans which incorporate intercellular signalling showed increased cell killing within the low dose region. This results in an increase in the Equivalent Uniform Dose (EUD) for GRID exposures compared to standard models, with some GRID exposures being predicted to be more effective than uniform delivery of the same physical dose.
CONCLUSIONS: This study demonstrates the potential impact of radiation induced signalling on tumour cell response for spatially fractionated therapies and identifies key experiments to validate this model and quantify these effects in vivo.
ADVANCES IN KNOWLEDGE: This study highlights the unique opportunities now possible using advanced preclinical techniques to develop a foundation for biophysical optimisation in radiotherapy treatment planning.
Resumo:
Carbon films were energetically deposited onto copper and nickel foil using a filtered cathodic vacuum arc deposition system. Raman spectroscopy, scanning electron microscopy, transmission electron microscopy and UV–visible spectroscopy showed that graphene films of uniform thickness with up to 10 layers can be deposited onto copper foil at moderate temperatures of 750 C. The resulting films, which can be prepared at high deposition rates, were comparable to graphene films grown at 1050 C using chemical vapour deposition (CVD). This difference in growth temperature is attributed to dynamic annealing which occurs as the film grows from the energetic carbon flux. In the case of nickel substrates, it was found that graphene films can also be prepared at moderate substrate temperatures. However much higher carbon doses were required, indicating that the growth mode differs between substrates as observed in CVD grown graphene. The films deposited onto nickel were also highly non uniform in thickness, indicating that the grain structure of the nickel substrate influenced the growth of graphene layers.
Resumo:
Present work examines numerically the asymmetric behavior of hydrogen/air flame in a micro-channel subjected to a non-uniform wall temperature distribution. A high resolution (with cell size of 25 μm × 25 μm) of two-dimensional transient Navier–Stokes simulation is conducted in the low-Mach number formulation using detailed chemistry evolving 9 chemical species and 21 elementary reactions. Firstly, effects of hydrodynamic and diffusive-thermal instabilities are studied by performing the computations for different Lewis numbers. Then, the effects of preferential diffusion of heat and mass transfer on the asymmetric behavior of the hydrogen flame are analyzed for different inlet velocities and equivalence ratios. Results show that for the flames in micro-channels, interactions between thermal diffusion and molecular diffusion play major role in evolution of a symmetric flame into an asymmetric one. Furthermore, the role of Darrieus–Landau instability found to be minor. It is also found that in symmetric flames, the Lewis number decreases behind the flame front. This is related to the curvature of flame which leads to the inclination of thermal and mass fluxes. The mass diffusion vectors point toward the walls and the thermal diffusion vectors point toward the centerline. Asymmetric flame is observed when the length of flame front is about 1.1–1.15 times of the channel width.
Resumo:
The low-temperature low-pressure hydrogen based plasmas were used to study the influence of processes and discharge conditions on corrosion removal. The capacitive coupled RF discharge in the continuous or pulsed regime was used at operating pressure of 100-200 Pa. Plasma treatment was monitored by optical emission spectroscopy. To be able to study influence of various process parameters, the model corroded samples with and without sandy incrustation were prepared. The SEM-EDX analyzes were carried out to verify corrosion removal efficiency. Experimental conditions were optimized for the selected most frequent materials of original metallic archaeological objects (iron, bronze, copper, and brass). Chlorides removal is based on hydrogen ion reactions while oxides are removed mainly by neutral species interactions. A special focus was kept for the samples temperature because it was necessary to avoid any metallographic changes in the material structure. The application of higher power pulsed regime with low duty cycle seems be the best treatment regime. The low pressure hydrogen plasma is not applicable for objects with a very broken structure or for nonmetallic objects due to the non-uniform heat stress. Due to this fact, the new developed plasmas generated in liquids were applied on selected original archaeological glass materials.
Resumo:
In dieser Arbeit werden optische Filterarrays für hochqualitative spektroskopische Anwendungen im sichtbaren (VIS) Wellenlängenbereich untersucht. Die optischen Filter, bestehend aus Fabry-Pérot (FP)-Filtern für hochauflösende miniaturisierte optische Nanospektrometer, basieren auf zwei hochreflektierenden dielektrischen Spiegeln und einer zwischenliegenden Resonanzkavität aus Polymer. Jeder Filter erlaubt einem schmalbandigem spektralen Band (in dieser Arbeit Filterlinie genannt) ,abhängig von der Höhe der Resonanzkavität, zu passieren. Die Effizienz eines solchen optischen Filters hängt von der präzisen Herstellung der hochselektiven multispektralen Filterfelder von FP-Filtern mittels kostengünstigen und hochdurchsatz Methoden ab. Die Herstellung der multiplen Spektralfilter über den gesamten sichtbaren Bereich wird durch einen einzelnen Prägeschritt durch die 3D Nanoimprint-Technologie mit sehr hoher vertikaler Auflösung auf einem Substrat erreicht. Der Schlüssel für diese Prozessintegration ist die Herstellung von 3D Nanoimprint-Stempeln mit den gewünschten Feldern von Filterkavitäten. Die spektrale Sensitivität von diesen effizienten optischen Filtern hängt von der Genauigkeit der vertikalen variierenden Kavitäten ab, die durch eine großflächige ‚weiche„ Nanoimprint-Technologie, UV oberflächenkonforme Imprint Lithographie (UV-SCIL), ab. Die Hauptprobleme von UV-basierten SCIL-Prozessen, wie eine nichtuniforme Restschichtdicke und Schrumpfung des Polymers ergeben Grenzen in der potenziellen Anwendung dieser Technologie. Es ist sehr wichtig, dass die Restschichtdicke gering und uniform ist, damit die kritischen Dimensionen des funktionellen 3D Musters während des Plasmaätzens zur Entfernung der Restschichtdicke kontrolliert werden kann. Im Fall des Nanospektrometers variieren die Kavitäten zwischen den benachbarten FP-Filtern vertikal sodass sich das Volumen von jedem einzelnen Filter verändert , was zu einer Höhenänderung der Restschichtdicke unter jedem Filter führt. Das volumetrische Schrumpfen, das durch den Polymerisationsprozess hervorgerufen wird, beeinträchtigt die Größe und Dimension der gestempelten Polymerkavitäten. Das Verhalten des großflächigen UV-SCIL Prozesses wird durch die Verwendung von einem Design mit ausgeglichenen Volumen verbessert und die Prozessbedingungen werden optimiert. Das Stempeldesign mit ausgeglichen Volumen verteilt 64 vertikal variierenden Filterkavitäten in Einheiten von 4 Kavitäten, die ein gemeinsames Durchschnittsvolumen haben. Durch die Benutzung der ausgeglichenen Volumen werden einheitliche Restschichtdicken (110 nm) über alle Filterhöhen erhalten. Die quantitative Analyse der Polymerschrumpfung wird in iii lateraler und vertikaler Richtung der FP-Filter untersucht. Das Schrumpfen in vertikaler Richtung hat den größten Einfluss auf die spektrale Antwort der Filter und wird durch die Änderung der Belichtungszeit von 12% auf 4% reduziert. FP Filter die mittels des Volumengemittelten Stempels und des optimierten Imprintprozesses hergestellt wurden, zeigen eine hohe Qualität der spektralen Antwort mit linearer Abhängigkeit zwischen den Kavitätshöhen und der spektralen Position der zugehörigen Filterlinien.
Resumo:
Das Verfahren der Lebensmitteltrocknung wird häufig angewendet, um ein Produkt für längere Zeit haltbar zu machen. Obst und Gemüse sind aufgrund ihres hohen Wassergehalts leicht verderblich durch biochemische Vorgänge innerhalb des Produktes, nicht sachgemäße Lagerung und unzureichende Transportmöglichkeiten. Um solche Verluste zu vermeiden wird die direkte Trocknung eingesetzt, welche die älteste Methode zum langfristigen haltbarmachen ist. Diese Methode ist jedoch veraltet und kann den heutigen Herausforderungen nicht gerecht werden. In der vorliegenden Arbeit wurde ein neuer Chargentrockner, mit diagonalem Luftstömungskanal entlang der Länge des Trocknungsraumes und ohne Leitbleche entwickelt. Neben dem unbestreitbaren Nutzen der Verwendung von Leitblechen, erhöhen diese jedoch die Konstruktionskosten und führen auch zu einer Erhöhung des Druckverlustes. Dadurch wird im Trocknungsprozess mehr Energie verbraucht. Um eine räumlich gleichmäßige Trocknung ohne Leitbleche zu erreichen, wurden die Lebensmittelbehälter diagonal entlang der Länge des Trockners platziert. Das vorrangige Ziel des diagonalen Kanals war, die einströmende, warme Luft gleichmäßig auf das gesamte Produkt auszurichten. Die Simulation des Luftstroms wurde mit ANSYS-Fluent in der ANSYS Workbench Plattform durchgeführt. Zwei verschiedene Geometrien der Trocknungskammer, diagonal und nicht diagonal, wurden modelliert und die Ergebnisse für eine gleichmäßige Luftverteilung aus dem diagonalen Luftströmungsdesign erhalten. Es wurde eine Reihe von Experimenten durchgeführt, um das Design zu bewerten. Kartoffelscheiben dienten als Trocknungsgut. Die statistischen Ergebnisse zeigen einen guten Korrelationskoeffizienten für die Luftstromverteilung (87,09%) zwischen dem durchschnittlich vorhergesagten und der durchschnittlichen gemessenen Strömungsgeschwindigkeit. Um den Effekt der gleichmäßigen Luftverteilung auf die Veränderung der Qualität zu bewerten, wurde die Farbe des Produktes, entlang der gesamten Länge der Trocknungskammer kontaktfrei im on-line-Verfahren bestimmt. Zu diesem Zweck wurde eine Imaging-Box, bestehend aus Kamera und Beleuchtung entwickelt. Räumliche Unterschiede dieses Qualitätsparameters wurden als Kriterium gewählt, um die gleichmäßige Trocknungsqualität in der Trocknungskammer zu bewerten. Entscheidend beim Lebensmittel-Chargentrockner ist sein Energieverbrauch. Dafür wurden thermodynamische Analysen des Trockners durchgeführt. Die Energieeffizienz des Systems wurde unter den gewählten Trocknungsbedingungen mit 50,16% kalkuliert. Die durchschnittlich genutzten Energie in Form von Elektrizität zur Herstellung von 1kg getrockneter Kartoffeln wurde mit weniger als 16,24 MJ/kg und weniger als 4,78 MJ/kg Wasser zum verdampfen bei einer sehr hohen Temperatur von jeweils 65°C und Scheibendicken von 5mm kalkuliert. Die Energie- und Exergieanalysen für diagonale Chargentrockner wurden zudem mit denen anderer Chargentrockner verglichen. Die Auswahl von Trocknungstemperatur, Massenflussrate der Trocknungsluft, Trocknerkapazität und Heiztyp sind die wichtigen Parameter zur Bewertung der genutzten Energie von Chargentrocknern. Die Entwicklung des diagonalen Chargentrockners ist eine nützliche und effektive Möglichkeit um dei Trocknungshomogenität zu erhöhen. Das Design erlaubt es, das gesamte Produkt in der Trocknungskammer gleichmäßigen Luftverhältnissen auszusetzen, statt die Luft von einer Horde zur nächsten zu leiten.
Resumo:
Thesis (Master's)--University of Washington, 2016-08
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
This thesis deals with tensor completion for the solution of multidimensional inverse problems. We study the problem of reconstructing an approximately low rank tensor from a small number of noisy linear measurements. New recovery guarantees, numerical algorithms, non-uniform sampling strategies, and parameter selection algorithms are developed. We derive a fixed point continuation algorithm for tensor completion and prove its convergence. A restricted isometry property (RIP) based tensor recovery guarantee is proved. Probabilistic recovery guarantees are obtained for sub-Gaussian measurement operators and for measurements obtained by non-uniform sampling from a Parseval tight frame. We show how tensor completion can be used to solve multidimensional inverse problems arising in NMR relaxometry. Algorithms are developed for regularization parameter selection, including accelerated k-fold cross-validation and generalized cross-validation. These methods are validated on experimental and simulated data. We also derive condition number estimates for nonnegative least squares problems. Tensor recovery promises to significantly accelerate N-dimensional NMR relaxometry and related experiments, enabling previously impractical experiments. Our methods could also be applied to other inverse problems arising in machine learning, image processing, signal processing, computer vision, and other fields.
Resumo:
We acquired coincident marine controlled-source electromagnetic (CSEM), high-resolution seismic reflection and ocean-bottom seismometer (OBS) data over an active pockmark in the crest of the southern part of the Vestnesa Ridge, to estimate fluid composition within an underlying fluid-migration chimney. Synthetic model studies suggest resistivity obtained from CSEM data can resolve gas or hydrate saturation greater than 5% within the chimney. Acoustic chimneys imaged by seismic reflection data beneath the pockmark and on the ridge flanks, were found to be associated with high-resistivity anomalies (+2-4 m). High-velocity anomalies (+0.3 km/s), within the gas hydrate stability zone (GHSZ) and low-velocity anomalies (-0.2 km/s) underlying the GHSZ, were also observed. Joint analysis of the resistivity and velocity anomaly indicates pore saturation of up to 52% hydrate with 28% free gas, or up to 73% hydrate with 4% free gas, within the chimney beneath the pockmark assuming a non-uniform and uniform fluid distribution respectively. Similarly, we estimate up to 30% hydrate with 4% free gas or 30% hydrate with 2% free gas within the pore space of the GHSZ outside the central chimney assuming a non-uniform and uniform fluid distribution respectively. High levels of free-gas saturation in the top part of the chimney are consistent with episodic gas venting from the pockmark.
Resumo:
La construction des biosystèmes d’oxydation passive du méthane (BOPM) est une option économique et durable pour réduire les émissions de méthane des sites d’enfouissement de déchets et des effets subséquents du réchauffement climatique. Les BOPM sont constitués de deux couches principales: la couche d'oxydation du méthane (MOL) et la couche de distribution du gaz (GDL). L'oxydation du méthane se produit dans la MOL par les réactions biochimiques des bactéries méthanotrophes, et la GDL est construite sous la MOL pour intercepter et distribuer les émissions fugitives de biogaz à la base de la MOL. Fondamentalement, l'efficacité d'un BOPM est définie en fonction de l'efficacité d'oxydation du méthane dans la MOL. Par conséquent, il est indispensable de fournir des conditions adéquates pour les activités bactériennes des méthanotrophes. En plus des paramètres environnementaux, l'intensité et la distribution du biogaz influencent l'efficacité des BOPM, et ils peuvent rendre le matériau de la MOL - avec une grande capacité d'accueillir les activités bactériennes - inutilisables en termes d'oxydation du méthane sur place. L'effet de barrière capillaire le long de l'interface entre la GDL et la MOL peut provoquer des émissions localisées de méthane, due à la restriction ou la distribution non uniforme de l’écoulement ascendant du biogaz à la base de la MOL. L'objectif principal de cette étude est d'incorporer le comportement hydraulique non saturé des BOPM dans la conception des BOPM, afin d’assurer la facilité et la distribution adéquates de l'écoulement du biogaz à la base de la MOL. Les fonctions de perméabilité à l'air des matériaux utilisés pour construire la MOL des BOPM expérimentaux au site d’enfouissement des déchets de St Nicéphore (Québec, Canada), ainsi que celles d'autres de la littérature technique, ont été étudiés pour évaluer le comportement d'écoulement non saturé du gaz dans les matériaux et pour identifier le seuil de migration sans restriction du gaz. Ce dernier seuil a été introduit en tant que un paramètre de conception avec lequel le critère de conception recommandé ici, c’est à dire la longueur de la migration sans restriction de gaz (LMSG), a été défini. La LMSG est considérée comme la longueur le long de l'interface entre la GDL et la MOL où le biogaz peut migrer à travers la MOL sans restriction. En réalisant des simulations numériques avec SEEP/W, les effets de la pente de l'interface, des paramètres définissant la courbe de rétention d'eau, de la fonction de la conductivité hydraulique du matériau de la MOL sur la valeur de la LMSG (représentant la facilité d'écoulement du biogaz à l'interface) et de la distribution de l'humidité (et par conséquent celle du biogaz) ont été évalués. Selon les résultats des simulations, la conductivité hydraulique saturée et la distribution des tailles de pores du matériau de la MOL sont les paramètres les plus importants sur la distribution de l'humidité le long de l'interface. Ce dernier paramètre influe également sur la valeur du degré de saturation et donc la facilité du biogaz à la base de la MOL. La densité sèche du matériau de MOL est un autre paramètre qui contrôle la facilité d'écoulement ascendant du biogaz. Les limitations principales de la présente étude sont associées au nombre de matériaux de MOL testés et à l'incapacité de SEEP/W de considérer l'évapotranspiration. Toutefois, compte tenu des hypothèses raisonnables dans les simulations et en utilisant les données de la littérature, on a essayé de réduire ces limitations. En utilisant les résultats des expériences et des simulations numériques, des étapes et des considérations de conception pour la sélection du matériau de MOL et de la pente d'interface ont été proposées. En effet,le comportement hydraulique non saturé des matériaux serait intégré dans les nécessités de conception pour un BOPM efficace, de sorte que la capacité maximale possible d'oxydation du méthane du matériau de la MOL soit exploitée.