198 resultados para transteoretiska modellen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Webbasierte Medien haben in den letzten Jahren eine stetig steigende Bedeutung im Alltag Jugendlicher. Konträr zu diesem Befund haben mediendidaktische Modelle kaum Eingang in die Politische Bildung, speziell die Politikdidaktik der Schule, gefunden. Zudem wird kritisch vermerkt, dass beim Einsatz digitaler Medien an klassischen lerntheoretischen Konzepten festgehalten wird, obwohl instruktionale Lehr-Lern-Settings als kontraproduktiv im Zusammenhang mit webbasierten Medien angesehen werden. Dagegen ist die in der Politikdidaktik äußerste kontrovers rezipierte konstruktivistische Lerntheorie äußerst anschlussfähig an eine Planung und Durchführung von Unterricht, welche den Fokus speziell auf den Einsatz webbasierter Medien richtet. rnAufgrund dieser Ausgangslage ist es das Erkenntnisinteresse dieser Arbeit, konstruktivistische Bedingungen des Politikunterrichts auf theoretischer Ebene zu formulieren. Dazu werden zunächst die erkenntnistheoretischen Grundlagen des Konstruktivismus anhand der zentralen Begriffe Autopoiesis, Soziale Konstruktion und Viabilität erörtert. In einem zweiten Schritt wird anhand der erkenntnistheoretischen Grundlagen gezeigt, wie eine konstruktivistische Lerntheorie formuliert werden kann. Dabei wird der Lernvorgang im Gegensatz zu den gängigen Modellen des Behaviorismus und Kognitivismus aus Schülersicht beschrieben. Im Anschluss wird der Einfluss des konstruktivistischen Paradigmas und einer konstruktivistischen Lerntheorie auf die Politikdidaktik aufgezeigt. rnAus dieser Analyse folgt, dass Schülerorientierung und Kontroversität sich als Kernprinzipien der Politischen Bildung uneingeschränkt anschlussfähig an die konstruktivistische Ausrichtung von Unterricht erweisen. Dabei wird die didaktische Rezeption und Umsetzungsproblematik dieser beiden didaktischen Prinzipien als Planungstools vor dem Hintergrund der Ziele des Politikunterrichts kritisch reflektiert. rnAus diesen lerntheoretischen Bedingungen wird abschließend analysiert, inwieweit webbasierte Medien bei der Umsetzung eines konstruktivistischen Politikunterrichts sinnvoll eingesetzt werden können. Dabei wird aufgezeigt, dass sich vor allem die in dieser Arbeit vorgestellten Medien Blog und Wiki für ein solches Vorhaben eignen. Die Analyse zeigt, dass eine enge Verzahnung von konstruktivistischer Lerntheorie und dem Einsatz webbasierter Medien im Politikunterricht möglich ist. Blogs und Wikis erweisen sich als geeignete Medien, um schülerorientierten und kontroversen Politikunterricht umzusetzen und den von Konstruktivisten geforderten grundlegenden Perspektivwechsel vorzunehmen. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Accumulating evidence indicates that loss of physiological amyloid precursor protein (APP) function leads to enhanced susceptibility of neurons to cellular stress during brain aging. This study investigated the neuroprotective function of the soluble APP ectodomain sAPPα. Recombinant sAPPα protected primary hippocampal neurons and neuroblastoma cells from cell death induced by trophic factor deprivation. This protective effect was abrogated in APP-depleted neurons, but not in APLP1-, APLP2- or IGF1-R-deficient cells, indicating that expression of holo-APP is required for sAPPα-dependent neuroprotection. Strikingly, recombinant sAPPα, APP-E1 domain and the copper-binding growth factor-like domain (GFLD) of APP were able to stimulate PI3K/Akt survival signaling in different wildtype cell models, but failed in APP-deficient cells. An ADAM10 inhibitor blocking endogenous sAPPα secretion exacerbated neuron death in organotypic hippocampal slices subjected to metabolic stress, which could be rescued by exogenous sAPPα. Interestingly, sAPPα-dependent neuroprotection was unaffected in neurons of APP-ΔCT15 mice which lack the intracellular C-terminal YENPTY motif of APP. In contrast, sAPPα-dependent Akt signaling was completely abolished in APP mutant cells lacking the C-terminal G-protein interaction motif and by specifically blocking Gi/o-dependent signaling with pertussis toxin. Collectively, the present thesis provides new mechanistic insights into the physiological role of APP: the data suggest that cell surface APP mediates sAPPα-induced neuroprotection via Go-protein-coupled activation of the Akt pathway.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The blood-brain barrier (BBB) and the blood-spinal cord barrier (BSCB) separate the brain and the spinal cord from the circulating blood and are important for the maintenance of the CNS homeostasis. They build a physical barrier thereby protecting the CNS from pathogens and toxic agents, and their disruption plays a crucial role in the pathogenesis of several CNS disorders. In this thesis, the blood-CNS-barriers were studied via in vitro models in two case studies for neurodegenerative disorders, in particular Alzheimer’s disease (AD) and amyotrophic lateral sclerosis (ALS). The first model evaluates treatment possibilities of AD using nanotechnology-based strategies. Since the toxic amyloid-β42 (Aβ42) peptide plays a crucial role in the pathogenesis of AD, reduced generation or enhanced clearance of Aβ42 peptides are expected to modify the disease course in AD. Therefore, several Aβ42-lowering drugs like flurbiprofen had been tested in clinical trials, but most of them failed due to their low brain penetration. Here, flurbiprofen was embedded in polylactide (PLA) nanoparticles and its transport was examined in an in vitro BBB model. The embedding of flurbiprofen into the nanoparticles disguised its cytotoxic potential and enabled the administration of higher drug concentrations which resulted in a sufficient transport of the drug across an endothelial cell monolayer. These results demonstrate that non-permeable drugs can be transported efficiently via nanoparticles and that these nanotechnology-based strategies are a promising tool to generate novel therapeutic options for AD and other CNS diseases. rnThe focus of the second project was to investigate the impaired integrity of the BSCB in a mouse model for ALS. About 20% of all familial ALS cases are associated with missense mutations or small deletions in the gene that encodes Cu/Zn-superoxide dismutase 1 (SOD1). To date, the molecular mechanisms resulting in ALS are still unknown, but there is evidence that the disruption of the BSCB is one of the primary pathological events. In both familial and sporadic ALS patients, loss of endothelial integrity and endothelial cell damage was observed, and studies with SOD1 transgenic mice demonstrated that the BSCB disruption was found prior to motor neuron degeneration and neurovascular inflammation. Thus, an in vitro model for ALS endothelial cells was generated which exhibited comparable integrity characteristics and tight junction (TJ) protein expression profiles as isolated primary endothelial cells of the BSCB of SOD1 transgenic mice. In this, an alteration of the βcat/AKT/FoxO1 pathway, which regulates the expression of the TJ protein claudin-5, could be observed. These data furthermore indicate that ALS is a neurovascular disease, and understanding of the primary events in ALS pathogenesis will hopefully provide ideas for the development of new therapeutic strategies. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gewebe, Zellen und speziell Zellkompartimente unterscheiden sich in ihrer Sauerstoffkonzentration, Stoffwechselrate und in der Konzentration an gebildeten reaktiven Sauerstoffspezies. Um eine mögliche Änderung in der Aminosäurennutzung durch den Einfluss von Sauerstoff und seinen reaktiven Spezies untersuchen zu können wurden, Bereiche bzw. Kompartimente der menschlichen Zelle definiert, die einen Referenzrahmen bildeten und bekannt dafür sind, einen relativ hohen Grad an reaktiven Sauerstoffspezies aufzuweisen. Aus dem Vergleich wurde deutlich, dass vor allem die beiden redox-aktiven und schwefeltragenden Aminosäuren Cystein und Methionin durch eine besondere Verteilung und Nutzung charakterisiert sind. Cystein ist hierbei diejenige Aminosäure mit den deutlichsten Änderungen in den fünf untersuchten Modellen der oxidativen Belastung. In all diesen Modellen war die Nutzung von Cystein deutlich reduziert, wohingegen Methionin in Proteinen des Mitochondriums und der Elektronentransportkette angereichert war. Dieser auf den ersten Blick paradoxe Unterschied zwischen Cystein und Methionin wurde näher untersucht, indem die differenzierte Methioninnutzung in verschiedenen Zellkompartimenten von Homo sapiens charakterisiert wurde.rnDie sehr leicht zu oxidierende Aminosäure Methionin zeigt ein ungewöhnliches Verteilungsmuster in ihrer Nutzungshäufigkeit. Entgegen mancher Erwartung wird Methionin in zellulären Bereichen hoher oxidativer Belastung und starker Radikalproduktion intensiv verwendet. Dieses Verteilungsmuster findet man sowohl im intrazellulären Vergleich, als auch im Vergleich verschiedener Spezies untereinander, was daraufhin deutet, dass es einen lokalen Bedarf an redox-aktiven Aminosäuren gibt, der einen sehr starken Effekt auf die Nutzungshäufigkeit von Methionin ausübt. Eine hohe Stoffwechselrate, die im Allgemeinen mit einer erhöhten Produktion von Oxidantien assoziiert wird, scheint ein maßgeblicher Faktor der Akkumulation von Methionin in Proteinen der Atmungskette zu sein. Die Notwendigkeit, oxidiertes Antioxidans wieder zu reduzieren, findet auch bei Methionin Anwendung, denn zu Methioninsulfoxid oxidiertes Methionin wird durch die Methioninsulfoxidreduktase wieder zu Methionin reduziert. Daher kann die spezifische Akkumulation von Methionin in Proteinen, die verstärkt reaktiven Sauerstoffspezies ausgesetzt sind, als eine systematische Strategie angesehen werden, um andere labile Strukturen vor ungewollter Oxidation zu schützen. rnDa Cystein in allen untersuchten Modellen der oxidativen Belastung und im Besonderen in Membranproteinen der inneren Mitochondrienmembran lebensspannenabhängig depletiert war, wurde dieses Merkmal näher untersucht. Deshalb wurde die Hypothese getestet, ob ein besonderer Redox-Mechanismus der Thiolfunktion für diese selektive Depletion einer im Allgemeinen als harmlos oder antioxidativ geltenden Aminosäure verantwortlich ist. Um den Effekt von Cysteinresten in Membranen nachzustellen, wurden primäre humane Lungenfibroblasten (IMR90) mit diversen Modellsubstanzen behandelt. Geringe Konzentrationen der lipophilen Substanz Dodecanthiol verursachten eine signifikante Toxizität in IMR90-Zellen, die von einer schnellen Zunahme an polyubiquitinierten Proteinen und anderen Indikatoren des proteotoxischen Stresses, wie Sequestosom 1 (P62), HSP70 und HSP90 begleitet wurde. Dieser Effekt konnte spezifisch der Chemie der Thiolfunktion in Membranen zugeordnet werden, da Dodecanol (DOH), Dodecylmethylsulfid (DMS), Butanthiol oder wasserlösliche Thiole weder eine cytotoxische Wirkung noch eine Polyubiquitinierung von Proteinen verursachten. Die Ergebnisse stimmen mit der Hypothese überein, dass Thiole innerhalb von biologischen Membranen als radikalische Kettentransferagentien wirken. Diese Eigenschaft wird in der Polymerchemie durch Nutzung von lipophilen Thiolen in hydrophoben Milieus technisch für die Produktion von Polymeren benutzt. Da die Thiylradikal-spezifische Reaktion von cis-Fettsäuren zu trans-Fettsäuren in 12SH behandelten Zellen verstärkt ablief, kann gefolgert werden, dass 12SH zellulär radikalisiert wurde. In lebenden Organismen kann demnach die Oxidation von Cystein die Schädigung von Membranen beschleunigen und damit Einfallstore für die laterale Radikalisierung von integralen Membranproteinen schaffen, welche möglicherweise der Langlebigkeit abträglich ist, zumindest, wenn sie in der inneren Mitochondrienmembran auftritt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The quark model successfully describes all ground state bary-ons as members of $SU(N)$ flavour multiplets. For excited baryon states the situation is totally different. There are much less states found in the experiment than predicted in most theoretical calculations. This fact has been known for a long time as the 'missing resonance problem'. In addition, many states found in experiments are only poorly measured up to now. Therefore, further experimental efforts are needed to clarify the situation.rnrnAt mbox{COMPASS}, reactions of a $190uskgigaeVperclight$ hadron beam impinging on a liquid hydrogen target are investigated.rnThe hadron beam contains different species of particles ($pi$, $K$, $p$). To distinguish these particles, two Cherenkov detectors are used. In this thesis, a new method for the identification of particles from the detector information is developed. This method is based on statistical approaches and allows a better kaon identification efficiency with a similar purity compared to the method, which was used before.rnrnThe reaction $pprightarrow ppX$ with $X=(pi^0,~eta,~omega,~phi)$ is used to study different production mechanisms. A previous analysis of $omega$ and $phi$ mesons is extended to pseudoscalar mesons. As the resonance contributions in $peta$ are smaller than in $ppi^0$ a different behaviour of these two final states is expected as a function of kinematic variables. The investigation of these differences allows to study different production mechanisms and to estimate the size of the resonant contribution in the different channels.rnrnIn addition, the channel $pprightarrow ppX$ allows to study baryon resonances in the $pX$ system.rnIn the mbox{COMPASS} energy regime, the reaction is dominated by Pomeron exchange. As a Pomeron carries vacuum quantum numbers, no isospin is transferred between the target proton and the beam proton. Therefore, the $pX$ final state has isospin $textstylefrac{1}{2}$ and all baryon resonances in this channel are $N^ast$ baryons. This offers the opportunity to do spectroscopy without taking $Delta$ resonances into account. rnrnTo disentangle the contributions of different resonances a partial wave analysis (PWA) is used. Different resonances have different spin and parity $J^parity$, which results in different angular distributions of the decay particles. These angular distributions can be calculated from models and then be fitted to the data. From the fit the contributions of the single resonances as well as resonance parameters -- namely the mass and the width -- can be extracted. In this thesis, two different approaches for a partial wave analysis of the reaction $pprightarrow pppi^0$ are developed and tested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The identification of molecular processes involved in cancer development and prognosis opened avenues for targeted therapies, which made treatment more tumor-specific and less toxic than conventional therapies. One important example is the epidermal growth factor receptor (EGFR) and EGFR-specific inhibitors (i.e. erlotinib). However, challenges such as drug resistance still remain in targeted therapies. Therefore, novel candidate compounds and new strategies are needed for improvement of therapy efficacy. Shikonin and its derivatives are cytotoxic constituents in traditional Chinese herbal medicine Zicao (Lithospermum erythrorhizin). In this study, we investigated the molecular mechanisms underlying the anti-cancer effects of shikonin and its derivatives in glioblastoma cells and leukemia cells. Most of shikonin derivatives showed strong cytotoxicity towards erlotinib-resistant glioblastoma cells, especially U87MG.ΔEGFR cells which overexpressed a deletion-activated EGFR (ΔEGFR). Moreover, shikonin and some derivatives worked synergistically with erlotinib in killing EGFR-overexpressing cells. Combination treatment with shikonin and erlotinib overcame the drug resistance of these cells to erlotinib. Western blotting analysis revealed that shikonin inhibited ΔEGFR phosphorylation and led to corresponding decreases in phosphorylation of EGFR downstream molecules. By means of Loewe additivity and Bliss independence drug interaction models, we found erlotinb and shikonin or its derivatives corporately suppressed ΔEGFR phosphorylation. We believed this to be a main mechanism responsible for their synergism in U87MG.ΔEGFR cells. In leukemia cells, which did not express EGFR, shikonin and its derivatives exhibited even greater cytotoxicity, suggesting the existence of other mechanisms. Microarray-based gene expression analysis uncovered the transcription factor c-MYC as the commonly deregulated molecule by shikonin and its derivatives. As validated by Western blotting analysis, DNA-binding assays and molecular docking, shikonin and its derivatives bound and inhibited c-MYC. Furthermore, the deregulation of ERK, JNK MAPK and AKT activity was closely associated with the reduction of c-MYC, indicating the involvement of these signaling molecules in shikonin-triggered c-MYC inactivation. In conclusion, the inhibition of EGFR signaling, synergism with erlotinib and targeting of c-MYC illustrate the multi-targeted feature of natural naphthoquinones such as shikonin and derivatives. This may open attractive possibilities for their use in a molecular targeted cancer therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The excitation spectrum is one of the fundamental properties of every spatially extended system. The excitations of the building blocks of normal matter, i.e., protons and neutrons (nucleons), play an important role in our understanding of the low energy regime of the strong interaction. Due to the large coupling, perturbative solutions of quantum chromodynamics (QCD) are not appropriate to calculate long-range phenomena of hadrons. For many years, constituent quark models were used to understand the excitation spectra. Recently, calculations in lattice QCD make first connections between excited nucleons and the fundamental field quanta (quarks and gluons). Due to their short lifetime and large decay width, excited nucleons appear as resonances in scattering processes like pion nucleon scattering or meson photoproduction. In order to disentangle individual resonances with definite spin and parity in experimental data, partial wave analyses are necessary. Unique solutions in these analyses can only be expected if sufficient empirical information about spin degrees of freedom is available. The measurement of spin observables in pion photoproduction is the focus of this thesis. The polarized electron beam of the Mainz Microtron (MAMI) was used to produce high-intensity, polarized photon beams with tagged energies up to 1.47 GeV. A "frozen-spin" Butanol target in combination with an almost 4π detector setup consisting of the Crystal Ball and the TAPS calorimeters allowed the precise determination of the helicity dependence of the γp → π0p reaction. In this thesis, as an improvement of the target setup, an internal polarizing solenoid has been constructed and tested. A magnetic field of 2.32 T and homogeneity of 1.22×10−3 in the target volume have been achieved. The helicity asymmetry E, i.e., the difference of events with total helicity 1/2 and 3/2 divided by the sum, was determined from data taken in the years 2013-14. The subtraction of background events arising from nucleons bound in Carbon and Oxygen was an important part of the analysis. The results for the asymmetry E are compared to existing data and predictions from various models. The results show a reasonable agreement to the models in the energy region of the ∆(1232)-resonance but large discrepancies are observed for energy above 600 MeV. The expansion of the present data in terms of Legendre polynomials, shows the sensitivity of the data to partial wave amplitudes up to F-waves. Additionally, a first, preliminary multipole analysis of the present data together with other results from the Crystal Ball experiment has been as been performed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Georg Breitner Simulacra Artis pretio metienda Studien zur Erforschung spätantiker mythologischer Rundplastik Zusammenfassung: Die römische Rundplastik stellt einen zentralen Bestandteil römischer Ausstattung dar. Wirtschaftliche und religionspolitische Veränderungen in der Spätantike beeinflussten nachhaltig ihre Herstellung und Verwendung. In der Forschung stehen sich derzeit zwei Haupttendenzen gegenüber. Während die eine das Ende der römischen Idealplastik im 3.Jh.n.Chr. sehen möchte, schlägt die andere eine nahezu ungebrochene Produktion bis in das späte 4.Jh.n.Chr. vor. Die Arbeit untersucht daher nicht nur den Entwicklungsprozess, sondern auch die Gründe für die heute so unterschiedliche Bewertung. Nach dem einleitenden Teil zum Forschungstand, dem chronologischen Rahmen und der Zielsetzung der Arbeit, wird im zweiten Teil die heidnische Rundplastik in der spätantiken Literatur betrachtet. Ausgehend von der Frage nach dem Bedarf an Rundplastik und dem privaten wie öffentlichen Aufstellungskontextes in der Spätantike, werden Grundlagen für die Bestimmung spätantiker Verhaltensmuster herausgearbeitet, die eine Aussage über die Herstellung von rundplastischen Werken wahrscheinlich macht. Hierzu werden ausgewählte literarische Quellen herangezogen, die Veränderungen im Umgang mit der Präsenz heidnischer Rundplastik in einem zunehmend christlich geprägten gesellschaftlichen Raum nachzeichnen lassen. Die höchst unterschiedlichen Äußerungen spätantiker Autoren weisen auf eine vielschichtige Auseinandersetzung mit dem kulturellen Erbe und seinem Weiterleben. Die Betrachtung der literarischen Quellen zeigt, dass weder Hinweise für ein mangelndes Interesse bestehen, noch die im 4.Jh. einsetzenden religiösen Veränderungen eine Produktion und Aufstellung der mythologischen Rundplastik ausschließen. Vielmehr zeigt sich ein wachsendes Bewusstsein am kulturellen Erbe, das sich in der Auseinandersetzung mit dem Inhalt und dem künstlerischen Schaffensprozess einer Statue ausdrückt. Durch die Loslösung des mythologischen Inhalts der Statuen von der heidnischen Religionsausübung erhalten die Statuen, aber auch ihre Künstler eine neue Wertschätzung, die ihren Erhalt garantieren und neue künstlerische Prozesse auslösen. Mit der Analyse der literarischen Quellen sind die Rahmenbedingungen eines gesellschaftlichen Umfelds bestimmt, die in den folgenden Kapiteln auf ihre Verbindungen mit der realen Existenz spätantiker Statuen mit mythologischem Inhalt geprüft werden. Im dritten Teil werden zunächst methodische Aspekte zu den unterschiedlichen Positionen in der Forschung diskutiert. Die bisherigen Datierungsvorschläge spätantiker Rundplastik stehen dabei ebenso im Zentrum, wie die Vorschläge eigener methodischer Zielsetzungen. Es zeigt sich, dass die Polarisierung der Forschungsmeinung nicht allein durch das untersuchte Material, sondern vom methodischen Umgang mit der archäologischen Stilkritik und der Definition von Modellen kunsthistorischer Entwicklungen bestimmt wird. Es werden daher Wege gesucht, die Datierung spätantiker Kunstentwicklung am Beispiel der mythologischen Rundplastik auf eine neue methodische Basis zu stellen. Ausgehend von der Rundplastik des 3.Jh.n.Chr. werden im dritten Teil der Arbeit anhand ausgewählter Statuengruppen die bisherigen, teilweise kontrovers geführten Überlegungen zur Datierbarkeit und kunsthistorischen Stellung und Entwicklung spätantiker Rundplastik geprüft. Es zeigt sich, dass durch die Einbeziehung eines chronologisch weiter gefassten Rahmens (3.-5.Jh.) Möglichkeiten zur Bestimmung spätantiker Stiltendenzen und ihrer Datierung hinzugewonnen werden können. Auf dieser Grundlage können einige Statuen erstmals der Spätantike zugewiesen werden. Andere Statuen- bislang für spätantik gehalten - werden dagegen deutlich früher datiert. Die zeitstilistischen Bewertungen der Fallbeispiele zeigen, dass grundsätzliche Phänomene und Definitionen spätantiker Kunstentwicklung überdacht werden müssen. So zeugt das Fortbestehen klassischer Formprinzipien in einem gewandelten gesellschaftlichen Umfeld nicht von einer Renaissance, sondern vielmehr von einem andauernden Prozeß im Umgang mit dem kulturellen Erbe. Im fünften Abschnitt der Arbeit werden alle angesprochenen Aspekte nochmals aufgegriffen, um ein Bild von der Wertschätzung, Produktion und damit Fortbestandes römischer Idealplastik zu zeichnen. Die Arbeit schließt mit einem Ausblick ab, der Perspektiven der Stilanalyse spätantiker Rundplastik für die Bewertung nachfolgender Stilentwicklungen aufzeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur administrativen Unterstützung von Lehr- und Lernprozessen werden E-Learning-Plattformen eingesetzt, die auf der Grundlage des Internet Funktionen zur Distribution von Lehr- und Lernmaterialien und zur Kommunikation zwischen Lehrenden und Lernenden anbieten. Zahlreiche wissenschaftliche Beiträge und Marktstudien beschäftigen sich mit der multikriteriellen Evaluation dieser Softwareprodukte zur informatorischen Fundierung strategischer Investitionsentscheidungen. Demgegenüber werden Instrumente zum kostenorientierten Controlling von E-Learning-Plattformen allenfalls marginal thematisiert. Dieser Beitrag greift daher das Konzept der Total Cost of Ownership (TCO) auf, das einen methodischen Ansatzpunkt zur Schaffung von Kostentransparenz von E-Learning-Plattformen bildet. Aufbauend auf den konzeptionellen Grundlagen werden Problembereiche und Anwendungspotenziale für das kostenorientierte Controlling von LMS identifiziert. Zur softwaregestützten Konstruktion und Analyse von TCO-Modellen wird das Open Source-Werkzeug TCO-Tool eingeführt und seine Anwendung anhand eines synthetischen Fallbeispiels erörtert. Abschließend erfolgt die Identifikation weiterführender Entwicklungsperspektiven des TCO-Konzepts im Kontext des E-Learning. Die dargestellte Thematik ist nicht nur von theoretischem Interesse, sondern adressiert auch den steigenden Bedarf von Akteuren aus der Bildungspraxis nach Instrumenten zur informatorischen Fundierung von Investitions- und Desinvestitionsentscheidungen im Umfeld des E-Learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

e-Manufacturing™, das ist die schnelle, flexible und kostengünstige Fertigung von Produkten, Formen/Werkzeugen oder Modellen direkt aus elektronischen Daten. e-Manufacturing™ schließt Rapid Prototyping, Rapid Tooling oder Rapid Manufacturing ein, geht aber zugleich weit über den Gedanken der schnellen Verfügbarkeit hinaus. Zwar wird auch in Zukunft die schnelle Produktentwicklung eine immer wichtigere Rolle spielen, bei der e-Manufacturing™ für ein verkürztes Time to Market sorgt, Entwicklungskosten verringert und zur Risikominimierung beiträgt. Darüber hinaus entstehen aber auch neue Geschäftsmodelle, da Kleinserienproduktion, steigende Variantenvielfalt und eine individualisierte Produktion (Mass Customization) plötzlich möglich und wirtschaftlich sind und sich neue Logistikkonzepte wie (Spare) parts on demand entwickeln. Die neue Konstruktionsfreiheit des Laser-Sinterns ermöglicht neue Produktkonzepte. Minimale Einschränkungen durch das Fertigungsverfahren erlauben funktionelle Integration und die Fertigung des „Unmöglichen“, da kreisförmige und lineare Werkzeugbewegungen das Produktdesign nicht mehr beeinflussen bzw. limitieren. Auch die Fertigungskonzepte unterliegen einem Wandel und werden deutlich flexibler. Werkzeuglose Produktion, losgrößenangepasste Fertigung und dezentrale Fertigung on demand sind die Schlagworte der Zukunft. Der vorliegende Beitrag zeigt Beispiele für den erfolgreichen kommerziellen Einsatz von Laser-Sintern in allen Phasen des Produktlebenszyklus. Der Schwerpunkt liegt dabei auf der direkten Herstellung von Funktionsteilen in der Serienfertigung. Die entscheidenden Faktoren für eine erfolgreiche Einführung und Anwendung von e-Manufacturing™ werden diskutiert. Der Beitrag zeigt auf, wie die neuesten technologischen Innovationen im Laser-Sintern, speziell zur Produktivitätssteigerung, das Spektrum der Anwendungsfelder erweitern, in denen dieses Fertigungsverfahren kostengünstige Lösungen bietet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objet Geometries Ltd entwickelt und produziert Rapid Prototyping Systeme und Materialien auf Basis der Polyjet-Technologie und bietet diese im internationalen Markt an. Objet ist der „Pionier“ in der Entwicklung der Polyjet-Technologie zur schnellen Erstellung von hochwertigen Modellen aus den 3D-Daten der Design- und CAx-Systeme. Die Oberflächenqualität, die schnelle Reinigung des Supportmaterials mit Hilfe eines Wasserstrahls, die Bauteilqualität hinsichtlich der Genauigkeit sowie die einfache Bedienung der Systeme zu einem hervorragenden Preis/Leistungsverhältnis zeichnen Objet als Marktführer dieser Technologie aus. Die Systeme von Objet sind insbesondere für den Anwender in Design und Engineering konzipiert und können in einer Büroumgebung betrieben werden. Die verwendeten Materialien sind für den Anwender ohne jegliche Gefahr einsetzbar und sind von einem deutschen Institut mit entsprechenden Zertifikaten dokumentiert. Die Produktlinie von Objet ermöglicht im Design und Engineering die Zeiten in der Produktentwicklung erheblich zu reduzieren. Kunden von Objet sind in Nordamerika, Europa, Asien und Australien zu finden, viele von ihnen sind bedeutende Unternehmen aus den Märkten Automobilindustrie, Elektronik/Elektrotechnik, Spielwaren, Medizin, Konsumerprodukte, Schuhindustrie, Schmuckindustrie und vielen anderen Branchen. Objet wurde 1998 gegründet und befindet sich im privaten Besitz. Das Unternehmen wird von Investoren wie der Scitex Corporation sowie von weiteren privaten Investoren, Unternehmer-Kapitalfonden and Kooperationen in USA, Japan, Europa und Israel unterstützt. Aus Wettbewerbsgründen werden Unternehmenszahlen derzeit nicht öffentlich zur Verfügung gestellt. Das Unternehmen beschäftigt zur Zeit weltweit ca. 75 Mitarbeiter und verfügt über eigene Vertriebs- und Servicecenter in den USA und Europa, sowie Vertriebspartnern in der ganzen Welt. Seit Mitte 2001 wurden über 170 Systeme weltweit vermarktet und installiert. Der Vortrag anlässlich der RapidTech wird diese noch recht „junge“ Technologie, deren Vorteile für den Anwender sowie die möglichen Applikationen an Hand von konkreten Beispielen im Detail erläutern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das FRP-Verfahren ist eine neuentwickelte Technologie, die andere Verfahren des Prototypenbaus bzw. der Prototypenerzeugung an Präzision, Schnelligkeit und Rentabilität um ein Vielfaches übertrifft. Generell verringert sich damit der Zeitrahmen von der Idee bis zum fertigen Modell (time-to-market) dramatisch.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Lasersintern (LS) hat sich als generatives Verfahren zur schichtweisen Fertigung von Modellen und Prototypen aus CAD-Daten etabliert. Die Möglichkeit werkzeuglos beliebig komplexe Bauteile zu erstellen birgt großes Potential für die zukünftige Fertigung von Einzelstücken und Kleinserien. Da die verfügbare Technologie starke Schwankung der Qualität mit sich bringt, stellt sich jedoch die Frage nach der prinzipiellen Leistungsfähigkeit des Verfahrens. Die Professur Fertigungstechnik an der Universität Duisburg-Essen verfügt über eine Sinterstation 2000 und hat sich näher mit dieser Problematik befasst um zu untersuchen, welche Qualität bei gegebener Anlagentechnik unter Verwendung eines gängigen Lasersinter-Werkstoffes erreichbar ist.