980 resultados para Vienna. U.L.F. zu den Schotten (Benedictine Monastery)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dieser Aufsatz analysiert die Darstellung der apokalyptischen Bilder in zwei frühen Werken von Ernst Jünger mit dem Ziel, ihre Ähnlichkeiten und Unterschiede zu den biblischen Apokalypse-Darstellungen zu zeigen. Untersucht werden das Kriegstagebuch 1914/1918 Ernst Jüngers, ein bislang noch unveröffentlichtes Werk des Autors, und In Stahlgewitten, das aus einer literarischen Reinterpretation der Kriegserlebnisse Ernst Jüngers, die im Kriegstagebuch aufgezeichnet wurden, beruht. Alle direkten oder indirekten Erwähnungen der Apokalypse in den untersuchten Werken beziehen sich lediglich auf die Dimension der Zerstörung, da der Autor vor allem die psychische Stärke seines Helden, der in solchen apokalyptischen Szenarien einen ständigen und erfolgreichen Kampf gegen den Tod führte, hervorheben wollte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit, deren erster Teil in Heft 2 dieser Zeitschrift veröffentlicht wurde, werden die Kosten der “Schnittkäserei” am Beispiel der Herstellung von Gouda-Käse modellhaft bestimmt, wobei die vor 17 Jahren durchgeführten Modellkalkulationen für Edamerkäse hinsichtlich der Funktionsinhalte der Abteilung ausgedehnt und dem neuesten Stand der Technik sowie heutigen Schnittkäsereiproduktionsstrukturen angepaßt wurden. Zudem sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hinsichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.8001 Käse/Jahr bestimmt werden. Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt. Die zu tätigenden Investitionen für die Grundversion betragen 10,6 Mio. DM in Modell 1 und 40,3 Mio. DM in Modell 4. Bezogen auf die jeweilige Rohstoffeinsatzmenge ergeben sich hieraus spezifische Investitionen, die mit zunehmender Modellgröße erheblich sinken: Machen sie im Modell 1 noch 215,6 Tsd. DM/1 Mio. kg jährlicher Rohstoffeinsatzmenge aus, so verringern sie sich im Modell 4 auf 135,3 Tsd. DM/1 Mio. kg. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten des Produktes Gouda, die je nach Modellgröße und Beschäftigungsgrad zwischen 510,8 und 538,5 Pf/kg Käse liegen. Die Gesamtkosten der “Schnittkäserei”, die sich aus den Einzelkosten des Produktes Gouda und den Einzelkosten der Abteilung zusammensetzen, betragen 530,9 bis 654,3 Pf/kg Käse. Den größten Anteil an den Gesamtkosten haben die Rohstoffkosten (73 bis 90%). Der Anteil der Anlagekosten schwankt je nach Beschäftigung zwischen 4 und 18%, während die Personal- und sonstige Betriebskosten im Vergleich zu den beiden vorgenannten Kostenartengruppen in allen Modellen nur eine geringere Bedeutung haben. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die höchsten Kosten in der Unterabteilung Bruchbereitung und Pressen anfallen: Bei einer 100%igen Beschäftigung betragen sie z.B. in Modell 3 42% der Gesamtkosten (ohne Rohstoff). Die geringsten Kosten (2%) fallen dagegen in der Unterabteilung Versandkühlraum und Expedition an. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendegression deutlich höher ist als derjenige der Modellgröße.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Medium' alkaliniiation occurred -lipon the addition of L-Glu to mechanically isolated Asparagus sprenger-i mesophyll cells suspended in 1 mM CaS04. Alkalinization resulted from the coupled entry of H+ and L-Glu anion into the cells. This H+ IL-Glu symport did not stimulate K+ efflux. K+ efflux has been observed during H~ lamino acid symport in other systems. The stimulation of K+ efflux by proton coupled symport is regarded as an indicator of a plasma membrane depolarizing electrogenic symport process. H+ IL-Glu symport in Asparagus sprengerimesophyl1 cells was investigated to determine whether or not the process was electrogenic. The rate of uptake of 0.25 11M 3H-MTPP+ ( Methyltriphenylphosphonium, methyl-3H ) is a probe for monitoring changes in the membrane potential. 3HMTPP+ uptake was reduced by K+ or CCCP, agents known to depolarize the membrane potential. Uptake of 3H-MTPP+ was also inhibited by L-Glu but not by D-Glu. Conversely, 10 mM external MTPP+ inhibited the uptake of 14C-U-LGlu. Simultaneous measurements of the rates of 14C-U-L-Glu uptake and L-Glu dependent H+ influx showed that the molar stoichiometry of H+ IL-Glu symport was 2 to 1. K+ or Na+ stimulated H+ efflux was completely inhibited by DCCD, DES, oligomycin and antimycin reagents which inhibit ATP driven H+ efflux. The H+ efflux \Vas also stimulate.d by the weak acids, butyric acid and acetic acid, which are known fo-aCidify the cytoplasm. This weak acid stimulated H+ efflux was also completely inhibited by oligomycin. It was calculated that net L-Glu dependent H+ influx increased by 100% in the presence of oligomycin and that despite net medium alkalinization H+ IL-Glu symport stimulates ATP dependent H+ efflux. 11 The data presented in this study indicate that H+ IL-Glu symport is electrogenic. The data also show that ATP dependent Ht efflux rather than K+ efflux is the- process compensating for thi~ electrogenic H+ IL-Glu symport.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ausgangspunkt der Dissertation ist ein von V. Maz'ya entwickeltes Verfahren, eine gegebene Funktion f : Rn ! R durch eine Linearkombination fh radialer glatter exponentiell fallender Basisfunktionen zu approximieren, die im Gegensatz zu den Splines lediglich eine näherungsweise Zerlegung der Eins bilden und somit ein für h ! 0 nicht konvergentes Verfahren definieren. Dieses Verfahren wurde unter dem Namen Approximate Approximations bekannt. Es zeigt sich jedoch, dass diese fehlende Konvergenz für die Praxis nicht relevant ist, da der Fehler zwischen f und der Approximation fh über gewisse Parameter unterhalb der Maschinengenauigkeit heutiger Rechner eingestellt werden kann. Darüber hinaus besitzt das Verfahren große Vorteile bei der numerischen Lösung von Cauchy-Problemen der Form Lu = f mit einem geeigneten linearen partiellen Differentialoperator L im Rn. Approximiert man die rechte Seite f durch fh, so lassen sich in vielen Fällen explizite Formeln für die entsprechenden approximativen Volumenpotentiale uh angeben, die nur noch eine eindimensionale Integration (z.B. die Errorfunktion) enthalten. Zur numerischen Lösung von Randwertproblemen ist das von Maz'ya entwickelte Verfahren bisher noch nicht genutzt worden, mit Ausnahme heuristischer bzw. experimenteller Betrachtungen zur sogenannten Randpunktmethode. Hier setzt die Dissertation ein. Auf der Grundlage radialer Basisfunktionen wird ein neues Approximationsverfahren entwickelt, welches die Vorzüge der von Maz'ya für Cauchy-Probleme entwickelten Methode auf die numerische Lösung von Randwertproblemen überträgt. Dabei werden stellvertretend das innere Dirichlet-Problem für die Laplace-Gleichung und für die Stokes-Gleichungen im R2 behandelt, wobei für jeden der einzelnen Approximationsschritte Konvergenzuntersuchungen durchgeführt und Fehlerabschätzungen angegeben werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bei der Bestimmung der irreduziblen Charaktere einer Gruppe vom Lie-Typ entwickelte Lusztig eine Theorie, in der eine sogenannte Fourier-Transformation auftaucht. Dies ist eine Matrix, die nur von der Weylgruppe der Gruppe vom Lie-Typ abhängt. Anhand der Eigenschaften, die eine solche Fourier- Matrix erfüllen muß, haben Geck und Malle ein Axiomensystem aufgestellt. Dieses ermöglichte es Broue, Malle und Michel füur die Spetses, über die noch vieles unbekannt ist, Fourier-Matrizen zu bestimmen. Das Ziel dieser Arbeit ist eine Untersuchung und neue Interpretation dieser Fourier-Matrizen, die hoffentlich weitere Informationen zu den Spetses liefert. Die Werkzeuge, die dabei entstehen, sind sehr vielseitig verwendbar, denn diese Matrizen entsprechen gewissen Z-Algebren, die im Wesentlichen die Eigenschaften von Tafelalgebren besitzen. Diese spielen in der Darstellungstheorie eine wichtige Rolle, weil z.B. Darstellungsringe Tafelalgebren sind. In der Theorie der Kac-Moody-Algebren gibt es die sogenannte Kac-Peterson-Matrix, die auch die Eigenschaften unserer Fourier-Matrizen besitzt. Ein wichtiges Resultat dieser Arbeit ist, daß die Fourier-Matrizen, die G. Malle zu den imprimitiven komplexen Spiegelungsgruppen definiert, die Eigenschaft besitzen, daß die Strukturkonstanten der zugehörigen Algebren ganze Zahlen sind. Dazu müssen äußere Produkte von Gruppenringen von zyklischen Gruppen untersucht werden. Außerdem gibt es einen Zusammenhang zu den Kac-Peterson-Matrizen: Wir beweisen, daß wir durch Bildung äußerer Produkte von den Matrizen vom Typ A(1)1 zu denen vom Typ C(1) l gelangen. Lusztig erkannte, daß manche seiner Fourier-Matrizen zum Darstellungsring des Quantendoppels einer endlichen Gruppe gehören. Deswegen ist es naheliegend zu versuchen, die noch ungeklärten Matrizen als solche zu identifizieren. Coste, Gannon und Ruelle untersuchen diesen Darstellungsring. Sie stellen eine Reihe von wichtigen Fragen. Eine dieser Fragen beantworten wir, nämlich inwieweit rekonstruiert werden kann, zu welcher endlichen Gruppe gegebene Matrizen gehören. Den Darstellungsring des getwisteten Quantendoppels berechnen wir für viele Beispiele am Computer. Dazu müssen unter anderem Elemente aus der dritten Kohomologie-Gruppe H3(G,C×) explizit berechnet werden, was bisher anscheinend in noch keinem Computeralgebra-System implementiert wurde. Leider ergibt sich hierbei kein Zusammenhang zu den von Spetses herrührenden Matrizen. Die Werkzeuge, die in der Arbeit entwickelt werden, ermöglichen eine strukturelle Zerlegung der Z-Ringe mit Basis in bekannte Anteile. So können wir für die meisten Matrizen der Spetses Konstruktionen angeben: Die zugehörigen Z-Algebren sind Faktorringe von Tensorprodukten von affinen Ringe Charakterringen und von Darstellungsringen von Quantendoppeln.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Unterrichtsmaterialien beschreiben einen Unterrichtsvorschlag für einen kontinuierlich computergestützten Stochastikunterricht in der gymnasialen Oberstufe. Verwendet wird die Software Fathom. Die Unterrichtsmaterialien wurden bislang in fünf verschiedenen Kasseler Oberstufenkursen (Jahrgangsstufe 12 bzw. 13) erprobt und dabei jeweils weiter entwickelt. Ausgearbeitet sind drei Unterrichtseinheiten: 1. „Einstieg in die Stochastik mit Simulationen“ 2. Unterrichtseinheit „Binomialverteilung“ 3. Unterrichtseinheit „Testen von Hypothesen“ Zu jeder der drei Unterrichtseinheiten existieren eine didaktische Beschreibung, die Arbeitsmaterialien (Arbeitsblätter, Merkblätter zur Ergebnissicherung, dynamische Lernumgebungen) sowie Musterlösungen zu den Aufgaben. Für alle Aufgaben mit Verwendung der Software Fathom stehen die zugehörigen Fathom-Dateien zur Verfügung. Alle Fathom-Dateien (Lernumgebungen und Musterlösungen der Aufgaben) erhalten Sie als *.zip-Datei zum Download.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Schnell ist das Ziel der Medienpädagogik mit "Medienkompetenz" benannt. Wenn man die Geschichte der Medienpädagogik und Mediendidaktik durchgeht, dann ist mit dieser Zieldefinition schon eine Menge erreicht. Es ist ein Erfolg der Medienpädagogik als Disziplin, dass sich eine von Politik, Wirtschaft und Schule akzeptierte Zielvorstellung heraus kristallisiert hat. Reicht diese allgemeine Akzeptanz jedoch aus, um Medien als Bildungsaufgabe zu bestimmen? Will man sich der Bildungsaufgabe theoretisch wie praktisch stellen, dann geht es um nicht weniger als die Frage, wie Medien in das Verhältnis der Menschen zu sich, zu anderen, zur Kultur, zu den Dingen und Ereignissen vermittelnd eingreifen, vielleicht sogar Prägekraft entwickeln. Das Verhältnis der Menschen zu sich, zur sozialen, dinglichen und kulturellen Umwelt war und ist immer in Bewegung. In diesem Verhältnis entstanden und entstehen typische Formen von Subjektivität, verläuft Sozialisation. Subjektivität konstituiert sich immer in einem unstetigen Feld von subjektivem Innen und objektivem Außen, von individueller Erfahrung und institutioneller Festlegung, von vorgegebener Kultur und einmaliger Aneignung. Im Moment erleben wir dieses Feld als besonders unstetig. Deshalb die Frage, was sich aktuell verändert, um die für die Konstitution von Subjektivität, anders formuliert, um die für Bildung und Sozialisation maßgebliche Konstellation im Medienbereich zu entdecken. Vielleicht lassen sich so Themenfelder der Medienpädagogik neu akzentuieren. Deshalb einführend einige Stichworte zur kulturellen und gesellschaftlichen Entwicklung.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aus der Einleitung: "Weder in den klassischen, allgemein erziehungswissenschaftlichen Hand- und Wörterbüchern der letzten drei Dekaden (vgl. u.a. Speck/Wehle 1970; Lenzen 1989; Krüger/Grunert 2004) noch in den entsprechenden Überblickspublikationen der Sozialpädagogik (vgl. u.a. Deutscher Verein für öffentliche und private Fürsorge 2002; Lauermann/Knapp 2003; Otto/Thiersch 2005; Kreft/Mielenz 2005) werden Frage- und Problemstellungen der Relation von Distanz und Nähe – zumindest nicht unter dieser Titulatur – diskutiert. Demgegenüber wird in den pflegeorientierten und gesundheitspräventiven wie auch patientenbezogenen Diskussionen der Medizin, in der Theologie und Ethnologie, in der Medien- und Migrationwissenschaft, der Germanistik und der vergleichenden Geschichtswissenschaft sowie in den psychotherapeutischen Diskursen der Nähe-Distanz-Problematik größere Aufmerksamkeit zuteil als in den pädagogischen und erziehungswissenschaftlichen Reflexionen und Diskursen. Wenn sie dennoch Objekt von erziehungswissenschaftlich gefärbten Beobachtungen wird, dann nur mittelbar und allenfalls in Randnotizen, wenn es – thematisch eingegrenzt – um das Ausbalancieren von Distanz und Nähe in den Beziehungen von PädagogInnen und AdressatInnen und der in diesem pädagogischen Verhältnis eingelagerten Intimität geht (vgl. u. a. Bittner/Rehm 1966). Die 'Erotik' im pädagogischen Alltag, die Ängste und die Verdrängungen dieser Dimension durch Aufbau von Distanz oder schließlich die Angst, durch eine zu große Nähe zu den AdressatInnen 'Kontrolle' über den Beruf zu 'verlieren', bleiben weitgehend ebenso unbeleuchtet wie eine nähere Betrachtung der Auswirkungen von zu viel Nähe zu Beruf und AdressatInnen auf die privaten, intimen wie freundschaftlichen Beziehungen (aus ethnopsychoanalytischer Perspektive hierzu u. a. Parin 1978). Zudem wird das Verhältnis von Nähe und Distanz – wenn überhaupt – jeweils spezifisch und auf eine je eigene Art als ein individuelles, nicht jedoch als ein in die Organisation des Pädagogischen immanent eingelagertes Problem beleuchtet, das sich zusätzlich aus den in den jeweiligen pädagogischen Arbeitsfeldern eingelagerten Handlungslogiken speist. Selbstverständlich kann das ambivalente Verhältnis von Nähe und Distanz nicht aus dem personalen Kontext entlassen werden. Wie immer es auch gewendet und thematisiert wird, es bleibt eine in Interaktionen eingewobene Polarität. Doch, und darauf zielen die Suchbewegungen in diesem Beitrag ab, wird es im pädagogischen Alltag von der jeweiligen Kultur der Organisation des Pädagogischen respektive der Sozialen Arbeit gerahmt – quasi kontextualisiert – und geprägt von den jeweils different modellierten beruflichen Habitus der professionellen AkteurInnen. Organisationskulturelle und habituelle Rahmungen des interaktiven Geschehens wiederum sind nicht ohne die Betrachtung der jeweils vorzufindenden feldspezifischen Regeln (vgl. Bourdieu/Wacquant 1996; zur Berücksichtigung einer Theorie des pädagogischen Feldes für Professionalisierung und Qualität vgl. Honig 2004). Diesen Rahmungen von Distanz und Nähe wird nachfolgend nachgespürt, indem erstens einige Beobachtungen aus dem sozialpädagogischen Alltag vorgestellt (1) und sie zweitens hinsichtlich der Ausbuchstabierung von Distanz und Nähe betrachtet werden (2). Drittens werden die bisherigen Überlegungen mit einem weiteren Fallportrait angereichert (3), um schließlich zu rekonstruieren, in welche Modalitäten Nähe und Distanz habituell, organisationskulturell und feldspezifisch eingebunden sind (4)."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Kurzfassung: Der Markt für ökologische Lebensmittel wächst stark. Verbraucher kaufen Produkte aus ökologischem Landbau aus einer Vielzahl von Gründen. Ein Teil dieser Gründe lässt sich nicht auf die Produktqualität zurückführen, sondern beruht auf der Annahme, dass sich der Produktionsprozess des Ökologischen Landbaus hinsichtlich der Schonung von Umweltressourcen, der Nachhaltigkeit der Produktion und sozialen Komponenten vom konventionellen Anbau unterscheidet. Daneben spielt der Wunsch nach einer gesunden Ernährung eine Rolle. Ökologische Lebensmittel können als Vertrauensgüter verstanden werden. Lebensmittelskandale machten in den vergangenen Jahren auch vor ökologischen Lebens¬mitteln nicht Halt. Folgerichtig erschütterte dies das Vertrauen der Verbraucher in ökologische Produkte. Mit steigender Produktion könnte die Gefahr, das weitere solche Ereignisse auftreten, steigen. Daher besteht Bedarf für Methoden, die die ökologische Produktqualität im Sinne einer Authentizitätsprüfung prüfen. Eine solche Prüfung könnte sich auf die Analyse sekundärer Pflanzenstoffe stützen. Diese Gruppe von Pflanzeninhaltsstoffen spielt bei der Diskussion um die besondere Qualität ökologischer Pflanzenprodukte eine große Rolle. Postuliert wird, dass ökologisch angebaute Pflanzen mangels mineralischer Düngung und mangels Schädlingsbekämpfung mit synthetischen Pestiziden einem erhöhten Stress ausgesetzt sind. Dies soll sich in einem höheren Niveau der mit den Selbstverteidigungsmechanismen der Pflanze eng verbundenen sekundären Pflanzenstoffe ausdrücken. Wichtige Untergruppen der sekundären Pflanzenstoffe sind Carotinoide und Polyphenole. An Weizen (Triticum aestivum L. und Triticum durum L.) und Möhre (Daucus carota L.) als für den ökologischen Landbau wichtigen Produkten wurden Messungen der Carotinoid- und Polyphenolkonzentration mit dem Ziel durchgeführt, die potentielle Eignung dieser Pflanzenstoffe als Biomarker zur Authentizitätsprüfung ökologischer Produkte zu evaluieren. Dazu wurden Proben aus ökologischem und konventionellem Anbau (Paarvergleich) untersucht. Diese stammten aus Langzeit-Feldversuchen (Weizen aus dem DOK- und dem MASCOT-Versuch), Feldversuchen und von Betriebspaaren untersucht. Ein generell höheres Niveau sekundärer Pflanzenstoffe in Möhren bzw. Weizen aus ökologischem Anbau gegenüber Proben aus konventionellem Anbau wurde nicht gefunden. Die Carotinoide waren weder bei der Möhre noch beim Weizen zur Authentizitätsprüfung geeignet. Die Konzentration der Carotinoide wurde stark durch die nicht dem Anbau¬verfahren zuzuordnenden Faktoren Klima, Sorte und Standort beeinflusst. Die Luteinkonzentration war das einzige durch das Anbauverfahren systematisch beeinflusste Carotenoid bei Weizen und Möhre. Die Unterschiede der Luteinkonzentration waren aber im Paarvergleich von Proben (ökologischer versus konventioneller Anbau) nicht durchgängig signifikant. Die Eignung von Polyphenolen als potentielles Authentizitätskriterium wurde nur an Möhren geprüft. Im Paarvergleich unterschieden sich die Konzentrationen einzelner Polyphenole signifikant und konsistent über Probenjahre und Standorte, nicht jedoch über Sorten hinweg. Wie bei den Carotinoiden konnte auch hier ein starker Einfluss von Probenjahr, Standort und Sorte gezeigt werden. Trotz der Variation durch diese nicht dem Anbau zuzuordnenden Faktoren war eine korrekte Klassifizierung der Proben nach Anbauverfahren möglich. Dies wurde mittels Diskriminanzanalyse getestet. Die Polyphenole sind daher potentiell als Authentizitätskriterium geeignet.