973 resultados para diffuse-interface method


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Large gene expression studies, such as those conducted using DNA arrays, often provide millions of different pieces of data. To address the problem of analyzing such data, we describe a statistical method, which we have called ‘gene shaving’. The method identifies subsets of genes with coherent expression patterns and large variation across conditions. Gene shaving differs from hierarchical clustering and other widely used methods for analyzing gene expression studies in that genes may belong to more than one cluster, and the clustering may be supervised by an outcome measure. The technique can be ‘unsupervised’, that is, the genes and samples are treated as unlabeled, or partially or fully supervised by using known properties of the genes or samples to assist in finding meaningful groupings. Results: We illustrate the use of the gene shaving method to analyze gene expression measurements made on samples from patients with diffuse large B-cell lymphoma. The method identifies a small cluster of genes whose expression is highly predictive of survival. Conclusions: The gene shaving method is a potentially useful tool for exploration of gene expression data and identification of interesting clusters of genes worth further investigation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objective Bacterial species have been found harboring the internal surface of dental implants as consequence of their failed connections. The aim of the present study was to compare the detection frequency of bacterial leakage from human saliva through the implantabutment interface, under non-loading conditions, using either DNA Checkerboard or culture method. Materials and methods Thirty dental implants with hexagonal platforms were connected to pre-machined abutments according to the manufacturers specifications. The assemblies were individually incubated in human saliva under anaerobic conditions for 7 similar to days at 37 degrees C. Afterward, contents from the inner parts of the implants were collected and evaluated with either DNA Checkerboard (s similar to=similar to 15) or culture (n similar to=similar to 15). Subsequently, identification and quantitation of bacterial species from saliva and implants were carried out for the group evaluated with the DNA Checkerboard method. Results Both DNA Checkerboard and culture showed positive signals of bacterial leakage in 6 of the 15 evaluated samples. Capnocytophaga gingivalis and Streptococcus mutans were the most frequently detected species harboring the internal surface of the implants followed by Veillonella parvula. Conclusion Occurrence of bacterial leakage along the implantabutment interface is comparably detected with both DNA Checkerboard hybridization and conventional culture methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of the present study is to propose a method to dynamically evaluate discomfort of a passenger seat by measuring the interface pressure between the occupant and the seat during the performance of the most common activities of a typical flight(1). This article reports the results of resting and reading studies performed in a simulator that represents the interior of a commercial aircraft.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A new concept for in vitro visual evaluation of sun protection factor (SPF) of cosmetic formulations based on a supramolecular ultraviolet (UV) dosimeter was clearly demonstrated. The method closely parallels the method validated for in vivo evaluation and relies on the determination of the slightest perceptible bleaching of an iron-complex dye/nanocrystallinetitanium dioxide interface (UV dosimeter) in combination with an artificial skin substrate simulating the actual human skin in the presence and absence of a cosmetic formulation. The successful evaluation of SPF was ensured by the similarity of the erythema response of our dosimeter and human skin to UV light irradiation. A good linear correlation of in vitro and in vivo data up to SPF 40 confirmed the effectiveness of such a simple, cheap, and fast method. In short, here we unravel a convenient and accessible visual FPS evaluation method that can help improving the control on cosmetic products contributing to the reduction of skin cancer, one of the critical public health issues nowadays. (C) 2011 Wiley Periodicals, Inc. and the American Pharmacists Association J Pharm Sci 101:726732, 2012

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Food and Nutrition Security (FNS) must be ensured to everybody. The school environment is favorable to the formation of healthy habits and citizenship. The National Curriculum Parameters (PCNs) guide the promotion of health concepts in a transversal way in the school curriculum. This study aimed to identify and analyze the approach used for food and nutrition themes in Fundamental Education's teaching material and its interface with the concept of FNS and the PCNs. Documental research was conducted on the teaching material from 5th to 8th grades of Fundamental Education in Public School of the state of Sao Paulo. The diffuse presence of food and nutrition themes was found in most disciplines in all bimesters in the four series, which shows the interdisciplinarity in health. It was found that the PCNs are related to the concept of SAN in its various aspects and that most subjects include topics that approach this relationship. In the correlation between themes, there is emphasis to health promotion and food production. The methodology used in the teaching material presents the theme, but not the correspondent content, what made the analysis of its suitability impossible. We conclude that there is the approach of the issues related to food and nutrition in the teaching material, some of them in an inconsistent way; it is the educators' task to select the contents and the appropriate strategy, doing an effort of constant update. This isbeing proposed by the State, however it is not accessible to all professionals and therefore still depends on the initiative of each teacher.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simple and sensitive method using solid phase microextraction (SPME) and liquid chromatography (LC) with heated online desorption (SPME-LC) was developed and validated to analyze anticonvulsants (AEDs) in human plasma samples. A heated lab-made interface chamber was used in the desorption procedure, which allowed the transference of the whole extracted sample. The SPME conditions were optimized by applying an experimental design. Important factors are discussed such as fiber coating types, pH, extraction time and desorption conditions. The drugs were analyzed by LC, using a C18 column (150 mm x 4.6 mm x 5 mm); and 50 mmol L-1, pH 5.50 ammonium acetate buffer : acetonitrile : methanol (55 : 22 : 23 v/v) as the mobile phase with a flow rate of 0.8 mL min(-1). The suggested method presented precision (intra-assay and inter-assay), linearity and limit of quantification (LOQ) all adequate for the therapeutic drug monitoring (TDM) of AEDs in plasma.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A correlated two-body basis function is used to describe the three-dimensional bosonic clusters interacting via two-body van der Waals potential. We calculate the ground state and the zero orbital angular momentum excited states for Rb-N clusters with up to N = 40. We solve the many-particle Schrodinger equation by potential harmonics expansion method, which keeps all possible two-body correlations in the calculation and determines the lowest effective many-body potential. We study energetics and structural properties for such diffuse clusters both at dimer and tuned scattering length. The motivation of the present study is to investigate the possibility of formation of N-body clusters interacting through the van der Waals interaction. We also compare the system with the well studied He, Ne, and Ar clusters. We also calculate correlation properties and observe the generalised Tjon line for large cluster. We test the validity of the shape-independent potential in the calculation of the ground state energy of such diffuse cluster. These are the first such calculations reported for Rb clusters. (C) 2012 American Institute of Physics. [http://dx.doi.org/10.1063/1.4730972]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Pb1-xLaxZryTi1-yO3 system is a perovskite ABO(3) structured material which presents ferroelectric properties and has been used as capacitors, actuators, transducers and electro-optic devices. In this paper, we describe the synthesis and the characterization of Pb0.89La0.11Zr0.40Ti0.60O3 (PLZT11) nanostructured material. The precursor polymeric method and the spark plasma sintering technique were respectively used to prepare ceramic samples. In order to compare the effect of grain size, microcrystalline PLZT11 ceramic samples were also prepared. PLZT11 samples were characterized by X-ray diffraction technique which results show a reduction on the degree of tetragonality as the average grain size decreases. Moreover, the grain size decrease to a nanometer range induces a diffuse behavior on the dielectric permittivity curves as a function of the temperature and a reduction on the dielectric permittivity magnitude. Furthermore, the large number of grain boundaries due to the nanometer size gives rise to a dielectric anomaly. (C) 2012 Elsevier Masson SAS. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabajo realizado por: Maldonado, F.; Packard, T.; Gómez, M.; Santana Rodríguez, J. J

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Amphiphile Peptide, Pro-Glu-(Phe-Glu)n-Pro, Pro-Asp-(Phe-Asp)n-Pro, und Phe-Glu-(Phe-Glu)n-Phe, können so aus n alternierenden Sequenzen von hydrophoben und hydrophilen Aminosäuren konstruiert werden, dass sie sich in Monolagen an der Luft-Wasser Grenzfläche anordnen. In biologischen Systemen können Strukturen an der organisch-wässrigen Grenzfläche als Matrix für die Kristallisation von Hydroxyapatit dienen, ein Vorgang der für die Behandlung von Osteoporose verwendet werden kann. In der vorliegenden Arbeit wurden Computersimulationenrneingesetzt, um die Strukturen und die zugrunde liegenden Wechselwirkungen welche die Aggregation der Peptide auf mikroskopischer Ebene steuern, zu untersuchen. Atomistische Molekulardynamik-Simulationen von einzelnen Peptidsträngen zeigen, dass sie sich leicht an der Luft-Wasser Grenzfläche anordnen und die Fähigkeit haben, sich in β-Schleifen zu falten, selbst für relativ kurze Peptidlängen (n = 2). Seltene Ereignisse wie diese (i.e. Konformationsänderungen) erfordern den Einsatz fortgeschrittener Sampling-Techniken. Hier wurde “Replica Exchange” Molekulardynamik verwendet um den Einfluss der Peptidsequenzen zu untersuchen. Die Simulationsergebnisse zeigten, dass Peptide mit kürzeren azidischen Seitenketten (Asp vs. Glu) gestrecktere Konformationen aufwiesen als die mit längeren Seitenketten, die in der Lage waren die Prolin-Termini zu erreichen. Darüber hinaus zeigte sich, dass die Prolin-Termini (Pro vs. Phe) notwendig sind, um eine 2D-Ordnung innerhalb derrnAggregate zu erhalten. Das Peptid Pro-Asp-(Phe-Asp)n-Pro, das beide dieser Eigenschaften enthält, zeigt das geordnetste Verhalten, eine geringe Verdrehung der Hauptkette, und ist in der Lage die gebildeten Aggregate durch Wasserstoffbrücken zwischen den sauren Seitenketten zu stabilisieren. Somit ist dieses Peptid am besten zur Aggregation geeignet. Dies wurde auch durch die Beurteilung der Stabilität von experimentnah-aufgesetzten Peptidaggregaten, sowie der Neigung einzelner Peptide zur Selbstorganisation von anfänglich ungeordneten Konfigurationen unterstützt. Da atomistische Simulationen nur auf kleine Systemgrößen und relativ kurze Zeitskalen begrenzt sind, wird ein vergröbertes Modell entwickelt damit die Selbstorganisation auf einem größeren Maßstab studiert werden kann. Da die Selbstorganisation an der Grenzfläche vonrnInteresse ist, wurden existierenden Vergröberungsmethoden erweitert, um nicht-gebundene Potentiale für inhomogene Systeme zu bestimmen. Die entwickelte Methode ist analog zur iterativen Boltzmann Inversion, bildet aber das Update für das Interaktionspotential basierend auf der radialen Verteilungsfunktion in einer Slab-Geometrie und den Breiten des Slabs und der Grenzfläche. Somit kann ein Kompromiss zwischen der lokalen Flüssigketsstruktur und den thermodynamischen Eigenschaften der Grenzfläche erreicht werden. Die neue Methode wurde für einen Wasser- und einen Methanol-Slab im Vakuum demonstriert, sowie für ein einzelnes Benzolmolekül an der Vakuum-Wasser Grenzfläche, eine Anwendung die von besonderer Bedeutung in der Biologie ist, in der oft das thermodynamische/Grenzflächenpolymerisations-Verhalten zusätzlich der strukturellen Eigenschaften des Systems erhalten werden müssen. Daraufrnbasierend wurde ein vergröbertes Modell über einen Fragment-Ansatz parametrisiert und die Affinität des Peptids zur Vakuum-Wasser Grenzfläche getestet. Obwohl die einzelnen Fragmente sowohl die Struktur als auch die Wahrscheinlichkeitsverteilungen an der Grenzfläche reproduzierten, diffundierte das Peptid als Ganzes von der Grenzfläche weg. Jedoch führte eine Reparametrisierung der nicht-gebundenen Wechselwirkungen für eines der Fragmente der Hauptkette in einem Trimer dazu, dass das Peptid an der Grenzfläche blieb. Dies deutet darauf hin, dass die Kettenkonnektivität eine wichtige Rolle im Verhalten des Petpids an der Grenzfläche spielt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The biosphere emits copiously volatile organic compounds (VOCs) into the atmosphere, which are removed again depending on the oxidative capacity of the atmosphere and physical processes such as mixing, transport and deposition. Biogenic VOCs react with the primary oxidant of the atmosphere, the hydroxyl radical (OH), and potentially lead to the formation tropospheric ozone and aerosol, which impact regional climate and air quality. The rate of OH decay in the atmosphere, the total OH reactivity is a function of the atmospheric, reactive compound's concentration and reaction velocity with OH. One way to measure the total OH reactivity, the total OH sink, is with the Comparative Reactivity Method - CRM. Basically, the reaction of OH with a reagent (here pyrrole) in clean air and in the presence of atmospheric, reactive molecules is compared. This thesis presents measurements of the total OH reactivity at the biosphere-atmosphere interface to analyze various influences and driving forces. For measurements in natural environment the instrument was automated and a direct, undisturbed sampling method developed. Additionally, an alternative detection system was tested and compared to the originally used detector (Proton Transfer Reaction-Mass Spectrometer, PTR-MS). The GC-PID (Gas Chromatographic Photo-Ionization Detector) was found as a smaller, less expensive, and robust alternative for total OH reactivity measurements. The HUMPPA-COPEC 2010 measurement campaign in the Finish forest was impacted by normal boreal forest emissions as well as prolonged heat and biomass burning emissions. The measurement of total OH reactivity was compared with a comprehensive set of monitored individual species ambient concentration levels. A significant discrepancy between those individually measured OH sinks and the total OH reactivity was observed, which was characterized in detail by the comparison of within and above the forest canopy detected OH reactivity. Direct impact of biogenic emissions on total OH reactivity was examined on Kleiner Feldberg, Germany, 2011. Trans-seasonal measurements of an enclosed Norway spruce branch were conducted via PTR-MS, for individual compound's emission rates, and CRM, for total OH reactivity emission fluxes. Especially during summertime, the individually monitored OH sink terms could not account for the measured total OH reactivity. A controlled oxidation experiment in a low NOx environment was conducted in the EUPHORE reaction chamber (CHEERS, Spain 2011). The concentration levels of the reactant isoprene and its major products were monitored and compared to total OH reactivity measurements as well as to the results of two models. The individually measured compounds could account for the total OH reactivity during this experiment as well as the traditional model-degradation scheme for isoprene (MCM 3.2). Due to previous observations of high OH levels in the isoprene-rich environment of the tropics, a novel isoprene mechanism was recently suggested. In this mechanism (MIME v4) additional OH is generated during isoprene oxidation, which could not be verified in the conditions of the CHEERS experiment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis, different complex colloids were prepared by the process of solvent evaporation from emulsion droplets (SEED). The term “complex” is used to include both an addressable functionality as well as the heterogeneous nature of the colloids.Firstly, as the SEED process was used throughout the thesis, its mechanism especially in regard to coalescence was investigated,. A wide variety of different techniques was employed to study the coalescence of nanodroplets during the evaporation of the solvent. Techniques such as DLS or FCS turned out not to be suitable methods to determine droplet coalescence because of their dependence on dilution. Thus, other methods were developed. TEM measurements were conducted on mixed polymeric emulsions with the results pointing to an absence of coalescence. However, these results were not quantifiable. FRET measurements on mixed polymeric emulsions also indicated an absence of coalescence. Again the results were not quantifiable. The amount of coalescence taking place was then quantified by the application of DC-FCCS. This method also allowed for measuring coalescence in other processes such as the miniemulsion polymerization or the polycondensation reaction on the interface of the droplets. By simulations it was shown that coalescence is not responsible for the usually observed broad size distribution of the produced particles. Therefore, the process itself, especially the emulsification step, needs to be improved to generate monodisperse colloids.rnThe Janus morphology is probably the best known among the different complex morphologies of nanoparticles. With the help of functional polymers, it was possible to marry click-chemistry to Janus particles. A large library of functional polymers was prepared by copolymerization and subsequent post-functionalization or by ATRP. The polymers were then used to generate Janus particles by the SEED process. Both dually functionalized Janus particles and particles with one functionalized face could be obtained. The latter were used for the quantification of functional groups on the surface of the Janus particles. For this, clickable fluorescent dyes were synthesized. The degree of functionality of the polymers was found to be closely mirrored in the degree of functionality of the surface. Thus, the marriage of click-chemistry to Janus particles was successful.Another complex morphology besides Janus particles are nanocapsules. Stimulus-responsive nanocapsules that show triggered release are a highly demanding and interesting system, as nanocapsules have promising applications in drug delivery and in self-healing materials. To achieve heterogeneity in the polymer shell, the stimulus-responsive block copolymer PVFc-b-PMMA was employed for the preparation of the capsules. The phase separation of the two blocks in the shell of the capsules led to a patchy morphology. These patches could then be oxidized resulting in morphology changes. In addition, swelling occurred because of the hydrophobic to hydrophilic transition of the patches induced by the oxidation. Due to the swelling, an encapsulated payload could diffuse out of the capsules, hence release was achieved.The concept of using block copolymers responsive to one stimulus for the preparation of stimulus-responsive capsules was extended to block copolymers responsive to more than one stimulus. Here, a block copolymer responsive to oxidation and a pH change as well as a block copolymer responsive to a pH change and temperature were studied in detail. The release from the nanocapsules could be regulated by tuning the different stimuli. In addition, by encapsulating stimuli-responsive payloads it was possible to selectively release a payload upon one stimulus but not upon the other one.In conclusion, the approaches taken in the course of this thesis demonstrate the broad applicability and usefulness of the SEED process to generate complex colloids. In addition, the experimental techniques established such as DC-FCCS will provide further insight into other research areas as well.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oceans are key sources and sinks in the global budgets of significant atmospheric trace gases, termed Volatile Organic Compounds (VOCs). Despite their low concentrations, these species have an important role in the atmosphere, influencing ozone photochemistry and aerosol physics. Surprisingly, little work has been done on assessing their emissions or transport mechanisms and rates between ocean and atmosphere, all of which are important when modelling the atmosphere accurately.rnA new Needle Trap Device (NTD) - GC-MS method was developed for the effective sampling and analysis of VOCs in seawater. Good repeatability (RSDs <16 %), linearity (R2 = 0.96 - 0.99) and limits of detection in the range of pM were obtained for DMS, isoprene, benzene, toluene, p-xylene, (+)-α-pinene and (-)-α-pinene. Laboratory evaluation and subsequent field application indicated that the proposed method can be used successfully in place of the more usually applied extraction techniques (P&T, SPME) to extend the suite of species typically measured in the ocean and improve detection limits. rnDuring a mesocosm CO2 enrichment study, DMS, isoprene and α-pinene were identified and quantified in seawater samples, using the above mentioned method. Based on correlations with available biological datasets, the effects of ocean acidification as well as possible ocean biological sources were investigated for all examined compounds. Future ocean's acidity was shown to decrease oceanic DMS production, possibly impact isoprene emissions but not affect the production of α-pinene. rnIn a separate activity, ocean - atmosphere interactions were simulated in a large scale wind-wave canal facility, in order to investigate the gas exchange process and its controlling mechanisms. Air-water exchange rates of 14 chemical species (of which 11 VOCs) spanning a wide range of solubility (dimensionless solubility, α = 0:4 to 5470) and diffusivity (Schmidt number in water, Scw = 594 to 1194) were obtained under various turbulent (wind speed at ten meters height, u10 = 0:8 to 15ms-1) and surfactant modulated (two different sized Triton X-100 layers) surface conditions. Reliable and reproducible total gas transfer velocities were obtained and the derived values and trends were comparable to previous investigations. Through this study, a much better and more comprehensive understanding of the gas exchange process was accomplished. The role of friction velocity, uw* and mean square slope, σs2 in defining phenomena such as waves and wave breaking, near surface turbulence, bubbles and surface films was recognized as very significant. uw* was determined as the ideal turbulent parameter while σs2 described best the related surface conditions. A combination of both uw* and σs2 variables, was found to reproduce faithfully the air-water gas exchange process. rnA Total Transfer Velocity (TTV) model provided by a compilation of 14 tracers and a combination of both uw* and σs2 parameters, is proposed for the first time. Through the proposed TTV parameterization, a new physical perspective is presented which provides an accurate TTV for any tracer within the examined solubility range. rnThe development of such a comprehensive air-sea gas exchange parameterization represents a highly useful tool for regional and global models, providing accurate total transfer velocity estimations for any tracer and any sea-surface status, simplifying the calculation process and eliminating inevitable calculation uncertainty connected with the selection or combination of different parameterizations.rnrn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present assembly and application of an optical reflectometer for the analysis of dental erosion. The erosive procedure involved acid-induced softening and initial substance loss phases, which are considered to be difficult for visual diagnosis in a clinic. Change of the specular reflection signal showed the highest sensitivity for the detection of the early softening phase of erosion among tested methods. The exponential decrease of the specular reflection intensity with erosive duration was compared to the increase of enamel roughness. Surface roughness was measured by optical analysis, and the observed tendency was correlated with scanning electron microscopy images of eroded enamel. A high correlation between specular reflection intensity and measurement of enamel softening (r(2) ? -0.86) as well as calcium release (r(2) ? -0.86) was found during erosion progression. Measurement of diffuse reflection revealed higher tooth-to-tooth deviation in contrast to the analysis of specular reflection intensity and lower correlation with other applied methods (r(2) = 0.42-0.48). The proposed optical method allows simple and fast surface analysis and could be used for further optimization and construction of the first noncontact and cost-effective diagnostic tool for early erosion assessment in vivo.