995 resultados para 990
Resumo:
Introduction 1.1 Occurrence of polycyclic aromatic hydrocarbons (PAH) in the environment Worldwide industrial and agricultural developments have released a large number of natural and synthetic hazardous compounds into the environment due to careless waste disposal, illegal waste dumping and accidental spills. As a result, there are numerous sites in the world that require cleanup of soils and groundwater. Polycyclic aromatic hydrocarbons (PAHs) are one of the major groups of these contaminants (Da Silva et al., 2003). PAHs constitute a diverse class of organic compounds consisting of two or more aromatic rings with various structural configurations (Prabhu and Phale, 2003). Being a derivative of benzene, PAHs are thermodynamically stable. In addition, these chemicals tend to adhere to particle surfaces, such as soils, because of their low water solubility and strong hydrophobicity, and this results in greater persistence under natural conditions. This persistence coupled with their potential carcinogenicity makes PAHs problematic environmental contaminants (Cerniglia, 1992; Sutherland, 1992). PAHs are widely found in high concentrations at many industrial sites, particularly those associated with petroleum, gas production and wood preserving industries (Wilson and Jones, 1993). 1.2 Remediation technologies Conventional techniques used for the remediation of soil polluted with organic contaminants include excavation of the contaminated soil and disposal to a landfill or capping - containment - of the contaminated areas of a site. These methods have some drawbacks. The first method simply moves the contamination elsewhere and may create significant risks in the excavation, handling and transport of hazardous material. Additionally, it is very difficult and increasingly expensive to find new landfill sites for the final disposal of the material. The cap and containment method is only an interim solution since the contamination remains on site, requiring monitoring and maintenance of the isolation barriers long into the future, with all the associated costs and potential liability. A better approach than these traditional methods is to completely destroy the pollutants, if possible, or transform them into harmless substances. Some technologies that have been used are high-temperature incineration and various types of chemical decomposition (for example, base-catalyzed dechlorination, UV oxidation). However, these methods have significant disadvantages, principally their technological complexity, high cost , and the lack of public acceptance. Bioremediation, on the contrast, is a promising option for the complete removal and destruction of contaminants. 1.3 Bioremediation of PAH contaminated soil & groundwater Bioremediation is the use of living organisms, primarily microorganisms, to degrade or detoxify hazardous wastes into harmless substances such as carbon dioxide, water and cell biomass Most PAHs are biodegradable unter natural conditions (Da Silva et al., 2003; Meysami and Baheri, 2003) and bioremediation for cleanup of PAH wastes has been extensively studied at both laboratory and commercial levels- It has been implemented at a number of contaminated sites, including the cleanup of the Exxon Valdez oil spill in Prince William Sound, Alaska in 1989, the Mega Borg spill off the Texas coast in 1990 and the Burgan Oil Field, Kuwait in 1994 (Purwaningsih, 2002). Different strategies for PAH bioremediation, such as in situ , ex situ or on site bioremediation were developed in recent years. In situ bioremediation is a technique that is applied to soil and groundwater at the site without removing the contaminated soil or groundwater, based on the provision of optimum conditions for microbiological contaminant breakdown.. Ex situ bioremediation of PAHs, on the other hand, is a technique applied to soil and groundwater which has been removed from the site via excavation (soil) or pumping (water). Hazardous contaminants are converted in controlled bioreactors into harmless compounds in an efficient manner. 1.4 Bioavailability of PAH in the subsurface Frequently, PAH contamination in the environment is occurs as contaminants that are sorbed onto soilparticles rather than in phase (NAPL, non aqueous phase liquids). It is known that the biodegradation rate of most PAHs sorbed onto soil is far lower than rates measured in solution cultures of microorganisms with pure solid pollutants (Alexander and Scow, 1989; Hamaker, 1972). It is generally believed that only that fraction of PAHs dissolved in the solution can be metabolized by microorganisms in soil. The amount of contaminant that can be readily taken up and degraded by microorganisms is defined as bioavailability (Bosma et al., 1997; Maier, 2000). Two phenomena have been suggested to cause the low bioavailability of PAHs in soil (Danielsson, 2000). The first one is strong adsorption of the contaminants to the soil constituents which then leads to very slow release rates of contaminants to the aqueous phase. Sorption is often well correlated with soil organic matter content (Means, 1980) and significantly reduces biodegradation (Manilal and Alexander, 1991). The second phenomenon is slow mass transfer of pollutants, such as pore diffusion in the soil aggregates or diffusion in the organic matter in the soil. The complex set of these physical, chemical and biological processes is schematically illustrated in Figure 1. As shown in Figure 1, biodegradation processes are taking place in the soil solution while diffusion processes occur in the narrow pores in and between soil aggregates (Danielsson, 2000). Seemingly contradictory studies can be found in the literature that indicate the rate and final extent of metabolism may be either lower or higher for sorbed PAHs by soil than those for pure PAHs (Van Loosdrecht et al., 1990). These contrasting results demonstrate that the bioavailability of organic contaminants sorbed onto soil is far from being well understood. Besides bioavailability, there are several other factors influencing the rate and extent of biodegradation of PAHs in soil including microbial population characteristics, physical and chemical properties of PAHs and environmental factors (temperature, moisture, pH, degree of contamination). Figure 1: Schematic diagram showing possible rate-limiting processes during bioremediation of hydrophobic organic contaminants in a contaminated soil-water system (not to scale) (Danielsson, 2000). 1.5 Increasing the bioavailability of PAH in soil Attempts to improve the biodegradation of PAHs in soil by increasing their bioavailability include the use of surfactants , solvents or solubility enhancers.. However, introduction of synthetic surfactant may result in the addition of one more pollutant. (Wang and Brusseau, 1993).A study conducted by Mulder et al. showed that the introduction of hydropropyl-ß-cyclodextrin (HPCD), a well-known PAH solubility enhancer, significantly increased the solubilization of PAHs although it did not improve the biodegradation rate of PAHs (Mulder et al., 1998), indicating that further research is required in order to develop a feasible and efficient remediation method. Enhancing the extent of PAHs mass transfer from the soil phase to the liquid might prove an efficient and environmentally low-risk alternative way of addressing the problem of slow PAH biodegradation in soil.
Resumo:
Seit Beginn der Waldzustandserhebungen im Jahr 1984 verschlechterte sich der Zustand der Eiche sowohl auf Bundesebene als auch im Land Rheinland-Pfalz deutlich. 1998 konnten nur noch 5 % der rheinland-pfälzischen Eichen in die Kategorie "ohne Schadensmerkmale" eingestuft werden. Vor diesem Hintergrund ergab sich die Notwendigkeit, die biotischen Stress- und Schadfaktoren näher zu untersuchen. Im Rahmen der vorliegenden Arbeit lag der Fokus auf den holzbewohnenden Käfern von Traubeneichen (Quercus petraea) aus dem Pfälzerwald. Zu diesem Zweck wurden für die erste Probenserie Untersuchungsbäume aus den Vitalitätsstufen 'vital', 'geschädigt', 'ein Jahr tot' und 'zwei Jahre tot' ausgewählt und in die drei Straten Stammfuß, Kronenansatz und Derbholz unterteilt. In der zweiten Probenserie kamen keine 'vitalen' Stämme mehr zum Einsatz. Die einzelnen Proben wurden in Fasseklektoren überführt, in denen die xylobionten Käfer ihre Entwicklung beenden und schlüpfen konnten. Die erste Probenserie wurde im Herbst 1998 entnommen, die zweite Serie im darauffolgenden Herbst. Zusätzlich zu diesen Laboruntersuchungen wurden Freilanduntersuchungen mit Stammeklektoren an vier stehenden Eichen im Wald durchgeführt. Die gefangenen Tiere wurden nach Ordnungen sortiert und gezählt, die Käfer nach Möglichkeit bis zur Art bestimmt. Die Ergebnisse der ersten und zweiten Serie wurden in Abundanzen (Ind./m² Rindenoberfläche) umgerechnet, um einen Vergleich der Proben untereinander möglich zu machen. Insgesamt wurden aus den Fasseklektoren beider Serien Käfer mit einer Abundanz von 36.990 Ind./m² ausgewertet. In den Fallen der Stammeklektoren wurden insgesamt 1.487 Käfer gefunden. Den weitaus größten Teil der Käfer der Fasseklektoren stellen die Borkenkäfer (Scolytidae). Dieses Ergebnis schlägt sich auch in der Betrachtung der Dominanz der einzelnen Arten nieder. In nahezu allen Fällen gehörten die Hauptarten in die Familie Scolytidae. Der mit den Absterbeerscheinungen der Eichen in Verbindung gebrachte Prachtkäfer Agrilus biguttatus (Buprestidae) trat in deutlich geringeren Abundanzen auf. Aufgrund seiner Fraßtätigkeit (Ringelung der Larven im Kambialbereich der Bäume) gehört er aber zu den potentiell stark schädigenden Käfern. Neben A. biguttatus sind auch A. sulcicollis und die gefundenen Borkenkäfer in der Lage, vorgeschädigte und geschwächte Eichen zu befallen und noch weiter zu schwächen. Aus waldhygienischen Gründen sollten deshalb regelmäßige Kontrollen durchgeführt werden. Bei erkennbarem Befall sollten die betroffenen Bäume gefällt und aus dem Bestand entfernt werden. Langfristig können die Vermeidung von nicht-standortgerechtem Eichenanbau und das Anlegen von naturnahen Mischbeständen zu den waldbaulichen Maßnahmen gerechnet werden, die eine Reduktion des Infektionsrisikos zur Folge haben. Die 'ein Jahr toten' Bäume wiesen die mit Abstand höchste Abundanz an Lebendholzbesiedlern auf. Bäume, die bereits ein Jahr länger tot im Bestand standen, wurden von deutlich weniger Lebendholzbesiedlern befallen, d.h. von 'zwei Jahre toten' Bäumen ging ein potentiell geringerer Infektionsdruck aus als von 'ein Jahr toten' Eichen. Im Laufe des Verrottungsprozesses verringert sich diese Gefahr noch weiter, da die Holzfeuchte weiter abnimmt und die Lebendholzbesiedler keine Nahrungsgrundlage mehr vorfinden. Besonders die Gefahr des Neubefalls durch Agrilus von mindestens zweijährig toten Bäumen besteht kaum, weil zumindest die Larven der ersten Stadien des Prachtkäfers auf lebendes Gewebe angewiesen sind.
Resumo:
Ozon (O3) ist in der Atmosphäre ein wichtiges Oxidanz und Treibhausgas. Während die höchsten Konzentrationen in der Stratosphäre beobachtet werden und die vor der gefährlichen UV-Strahlung schützende Ozonschicht bilden, können sich signifikante Änderungen der Ozon-Konzentration in der Region der Tropopause auf das Klima der Erde auswirken. Des Weiteren ist Ozon eine der Hauptquellen für das Hydroxylradikal (OH) und nimmt damit entscheidend Einfluss auf die Oxidationskraft der Atmosphäre. Der konvektive Transport von Ozon und seinen Vorläufergasen aus Regionen nahe der Erdoberfläche in die freie Troposphäre beeinflusst das Budget dieser Spezies in der Tropopausenregion.rnDie Datengrundlage der Studie in der vorliegenden Arbeit basiert auf den flugzeuggetragenen Messkampagnen GABRIEL 2005 (Suriname, Südamerika) sowie HOOVER I 2006 und HOOVER II 2007 (beide in Europa). Mit dem zur Verfügung stehenden Datensatz wird das Ozonbudget in der freien, unbelasteten Hintergrundatmosphäre und in der durch hochreichende Konvektion gestörten, oberen Troposphäre untersucht. Anhand der auf in-situ Messungen von O3, NO, OH, HO2 und dem aktinischen Strahlungsfluss basierten Berechnung der Netto-Ozonproduktionsrate (NOPR) werden für das Messgebiet Ozontendenzen in der unbelasteten Troposphäre abgeleitet und mit Simulationen des globalen Chemie-Transport-Modells MATCH-MPIC verglichen. Mit Hilfe zweier Fallstudien in den Tropen in Südamerika und den mittleren Breiten in Europa werden die Auswirkungen von hochreichender Konvektion auf die obere Troposphäre quantifiziert.rnDie Ergebnisse zeigen für die Grenzschicht in niedrigen und mittleren Breiten eine eindeutige Tendenz zur Produktion von Ozon, was für den tropischen Regenwald in der Messregion nicht der allgemeinen Erwartung entsprach, nach der diese Region durch die Zerstörung von Ozon charakterisiert sein sollte. In der oberen Troposphäre ab etwa 7 km wird für die beiden Regionen eine leichte Tendenz zur Ozonproduktion beobachtet. Signifikante Unterschiede zeigen die Ergebnisse für die mittlere Troposphäre. Während die Tropen in dieser Region durch eine eindeutige Tendenz zur Zerstörung von Ozon charakterisiert sind, lässt sich über den mittleren Breiten zwar eine hohe photochemische Aktivität aber keine derart klare Tendenz feststellen. Die hohen Breiten zeichnen sich durch eine neutrale Troposphäre in Bezug auf die Ozontendenz aus und weisen kaum photochemische Aktivität auf. Der Vergleich dieser Ergebnisse mit dem MATCH-MPIC Modell zeigt in weiten Teilen der Messregionen eine grundlegende Übereinstimmung in der Tendenz zur Produktion oder Zerstörung von Ozon. Die absoluten Werte werden vom Modell aber generell unterschätzt. Signifikante Unterschiede zwischen in-situ Daten und Modellsimulationen werden in der Grenzschicht über dem tropischen Regenwald identifiziert.rnDer Einfluss der Konvektion ist durch eine signifikant erhöhte NOPR gekennzeichnet. In dieser Arbeit wird in den Tropen mit einem Median-Wert von 0.20 ppbv h−1 eine um den Faktor 3.6 erhöhte NOPR im Vergleich zur ungestörten oberen Troposphäre abgeschätzt. In den mittleren Breiten führt die um eine Größenordnung höhere NO-Konzentration zu einem Wert von 1.89 ppbv h−1, was einer Überhöhung um einen Faktor 6.5 im Vergleich zum ungestörten Zustand entspricht. Diese Ergebnisse zeigen für beide Regionen in der oberen Troposphäre eine erhöhte Ozonproduktion als Folge konvektiver Aktivität. rnrnHochreichende Konvektion ist zudem ein sehr effektiver Mechanismus für den Vertikaltransport aus der Grenzschicht in die obere Troposphäre. Die schnelle Hebung in konvektiven Wolken führt bei Spurengasen mit Quellen an der Erdoberfläche zu einer Erhöhung ihrer Konzentration in der oberen Troposphäre. Die hochgradig löslichen Spurenstoffe Formaldehyd (HCHO) und Wasserstoffperoxid (H2O2) sind wichtige Vorläufergase der HOx-Radikale. Es wird angenommen, dass sie aufgrund ihrer Löslichkeit in Gewitterwolken effektiv ausgewaschen werden.rnIn der vorliegenden Arbeit wird eine Fallstudie von hochreichender Konvektion im Rahmen des HOOVER II Projekts im Sommer 2007 analysiert. Am 19.07.2007 entwickelten sich am Nachmittag am Südostrand eines in nordöstlicher Richtung ziehenden mesoskaligen konvektiven Systems drei zunächst isolierte konvektive Zellen. Flugzeuggetragene Messungen in der Aus- und der Einströmregion einer dieser Gewitterzellen stellen einen exzellenten Datensatz bereit, um die Auswirkungen von hochreichender Konvektion auf die Verteilung verschiedener Spurengase in der oberen Troposphäre zu untersuchen. Der Vergleich der Konzentrationen von Kohlenstoffmonoxid (CO) und Methan (CH4) zwischen der oberen Troposphäre und der Grenzschicht deutet auf einen nahezu unverdünnten Transport dieser langlebigen Spezies in der konvektiven Zelle hin. Die Verhältnisse betragen (0.94±0.04) für CO und (0.99±0.01) für CH4. Für die löslichen Spezies HCHO und H2O2 beträgt dieses Verhältnis in der Ausströmregion (0.55±0.09) bzw. (0.61±0.08). Dies ist ein Indiz dafür, dass diese Spezies nicht so effektiv ausgewaschen werden wie angenommen. Zum besseren Verständnis des Einflusses der Konvektion auf die Budgets dieser Spezies in der oberen Troposphäre wurden im Rahmen dieser Arbeit Boxmodell-Studien für den Beitrag der photochemischen Produktion in der Ausströmregion durchgeführt, wobei die gemessenen Spezies und Photolysefrequenzen als Randbedingungen dienten. Aus den Budgetbetrachtungen für HCHO und H2O2 wird eine Auswascheffizienz von (67±24) % für HCHO und (41±18) % für H2O2 abgeschätzt. Das für H2O2 überraschende Ergebnis lässt darauf schließen, dass dieses Molekül in einer Gewitterwolke deutlich effektiver transportiert werden kann, als aufgrund seiner hohen Löslichkeit aus der Henry-Konstanten zu erwarten wäre. Das Ausgasen von gelöstem H2O2 beim Gefrieren eines Wolkentropfens, d.h. ein Retentionskoeffizient kleiner 1, ist ein möglicher Mechanismus, der zum beobachteten Mischungsverhältnis dieser löslichen Spezies in der Ausströmregion beitragen kann.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.
Resumo:
The i-gel™ supraglottic airway device has been studied in randomized controlled studies, but it has not been evaluated in a large prospective patient cohort. Therefore, we performed this prospective multicentre observational study to evaluate success rates, airway leak pressure, risk factors for i-gel failure, and adverse events.
Resumo:
BACKGROUND: Patency of small synthetic bypass grafts is inferior compared to autologous grafts for revascularization procedures. Titanium coating of foreign surfaces has shown to decrease thrombogenicity, enhance biocompatibility and promote adhesion of endothelial cells. The aim of this study was to test the effect of titanium coating of small diameter ePTFE grafts on short term patency, neo-endothelialization and neointimal proliferation. METHODS: Bilateral carotid graft interposition was performed in 5 pigs with uncoated (n=5) and titanium-coated (n=5) ePTFE grafts (internal diameter=4 mm, length=5 cm), thus each pig served as its own control. At the end of the study (30 +/- 3 days), patency and stenosis severity was assessed by carotid angiography. Animals were sacrificed and grafts were excised for histology and scanning electron microscopy. Morphometry of histologic sections was carried out to determine neointimal proliferation and percentage of neo-endothelial coverage. RESULTS: Patency rate was 80% for uncoated and titanium-coated grafts. Quantitative angiography did not show any significant difference in lumen size between two groups. Morphometry revealed a significantly higher cellular coverage with CD31 positive endothelial cells for titanium-coated (84 +/- 19%) than uncoated grafts (48 +/- 26%, p<0.001). There was a non significant trend (p=0.112) towards increased neointimal proliferation in titanium-coated (94 +/- 61 micron2/micron) compared to uncoated grafts (60 +/- 57 micron2/micron). CONCLUSIONS: Patency rate in uncoated and titanium-coated ePTFE grafts is similar at one month. However, titanium coated grafts show a significant improvement in neo-endothelialization compared to uncoated grafts.
Resumo:
BACKGROUND: Conventionally, endosseous dental implants have required 3 to 6 months of uninterrupted healing based on observations for dental implants that were characterized by a relatively smooth machined surface. Many studies have since demonstrated that implants with a roughened surface resulted in greater bone apposition, earlier bone contact, and a stronger bond between the implant and the bone, suggesting that implants with roughened surfaces could be loaded earlier than 3 to 6 months. Formal clinical studies confirmed that implants with rough surfaces can have abutments placed and be loaded occlusally as early as 6 weeks postplacement. The purpose of this prospective, human clinical investigation was to evaluate a large number of implants with a specific rough surface (sand-blasted acid-etched [SLA]) placed in everyday practice under routine private-practice conditions. METHODS: A prospective, multicenter, human clinical observational study was initiated with the goal of recruiting a minimum of 500 patients and 800 implants. The implants were to be placed and restored in predominantly private-practice settings around the world. Ninety-two practitioners in 16 countries agreed to participate, and 86 followed the study design. Patients had to be in good health, have sufficient bone to encase the implant, and agree to return for recall appointments. Exclusion criteria included heavy smoking (>10 cigarettes a day) and bone augmentation procedures at the implant site. All implants were two-piece (an abutment was to be placed after 6 weeks of healing) and were characterized by the presence of a transmucosal polished collar. Each implant had an SLA surface. All implants were positioned using a non-submerged (single-stage) surgical technique. Survival and success rates were calculated by life-table analyses. RESULTS: A total of 706 patients were enrolled and 1,406 implants were placed. In the final analyses, 590 patients with 990 implants (70.4% of those enrolled) met all inclusion criteria, including placement of an abutment and provisional restoration within 63 days of surgical placement. The majority of implants were 10 and 12 mm long (78.7%) and were placed in type II and III bone (87%). Seventy-three percent of the implants were placed in the mandible, and 27% were placed in the maxilla. The cumulative survival rate was 99.56% at 3 years and 99.26% at 5 years. The overall success rate was 99.12% at 3 years and 97.38% after 5 years. CONCLUSIONS: Under private-practice conditions, implants with an SLA surface could be placed and restored predictably within 6 to 8 weeks. Data from this prospective, multicenter, human observational study reinforced the results of more formal clinical studies and demonstrated that implants with the SLA surface can be restored in patients in approximately half of the time of conventional healing periods.
Resumo:
In this study, we present a novel genotyping scheme to classify German wild-type varicella-zoster virus (VZV) strains and to differentiate them from the Oka vaccine strain (genotype B). This approach is based on analysis of four loci in open reading frames (ORFs) 51 to 58, encompassing a total length of 1,990 bp. The new genotyping scheme produced identical clusters in phylogenetic analyses compared to full-genome sequences from well-characterized VZV strains. Based on genotype A, D, B, and C reference strains, a dichotomous identification key (DIK) was developed and applied for VZV strains obtained from vesicle fluid and liquor samples originating from 42 patients suffering from varicella or zoster between 2003 and 2006. Sequencing of regions in ORFs 51, 52, 53, 56, 57, and 58 identified 18 single-nucleotide polymorphisms (SNPs), including two novel ones, SNP 89727 and SNP 92792 in ORF51 and ORF52, respectively. The DIK as well as phylogenetic analysis by Bayesian inference showed that 14 VZV strains belonged to genotype A, and 28 VZV strains were classified as genotype D. Neither Japanese (vaccine)-like B strains nor recombinant-like C strains were found within the samples from Germany. The novel genotyping scheme and the DIK were demonstrated to be practical and simple and allow the highly efficient replication of phylogenetic patterns in VZV initially derived from full-genome DNA sequence analyses. Therefore, this approach may allow us to draw a more comprehensive picture of wild-type VZV strains circulating in Germany and Central Europe by high-throughput procedures in the future.