999 resultados para Hilfe
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.
Resumo:
Es werden die Grundlagen und wichtigsten Konzepte für zielorientierte Fehlerschätzer bei linearen und nichtlinearen Problemen vorgestellt. Mit ihrer Hilfe lassen sich Aussagen über die Güte einzelner lokaler Werte treffen und es ist möglich, das Netz innerhalb von adaptiven Verfahren derart zu optimieren, dass die betrachtete lokale Größe möglichst genau berechnet werden kann.
Resumo:
Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.
Resumo:
Bundesregierung und IT-Wirtschaft setzen zurzeit große Hoffnungen in die sogenannte Job-Card. Da dieses System bei jedem Antragsteller in der gesetzlichen Arbeitslosenversicherung in Deutschland den Besitz einer sicheren Signaturerstellungseinheit nebst Zertifikat voraussetzt, könnte mit seiner Hilfe der Verbreitung von Signaturverfahren ein entscheidender Schub verschafft werden. Neben den zu lösenden technischen und organisatorischen Problemen ergeben sich jedoch auch eine Reihe von rechtlichen Fragestellungen insbesondere aus dem Signatur- und Datenschutzrecht. Aus diesen lassen sich Gestaltungsanforderungen für die rechtliche Grundlage der JobCard und ihre praktische Umsetzung ableiten.
Resumo:
Die vorliegende Unterrichtsreihe basiert auf zwei grundlegenden Vorstellungen zum Lernen und Lehren von Wahrscheinlichkeitsrechnung für Anfänger in der Sekundarstufe I. Zum einen ist die grundsätzliche Überzeugung der Autoren, dass ein sinnvoller und gewinnbringender Unterricht in Stochastik über den aufwendigeren Weg möglichst authentischer und konkreter Anwendungen im täglichen Leben gehen sollte. Demzufolge reicht eine Einkleidung stochastischer Probleme in realistisch wirkende Kontexte nicht, sondern es sollte eine intensive Erarbeitung authentischer Problemstellungen, z.B. mit Hilfe von realen Medientexten, erfolgen. Die Schüler sollen vor allem lernen, reale Probleme mathematisch zu modellieren und gefundene mathematische Ergebnisse für die reale Situation zu interpretieren und kritisch zu diskutieren. Eine weitere Besonderheit gegenüber traditionellen Zugängen zur Wahrscheinlichkeitsrechnung basiert auf kognitionspsychologischen Ergebnissen zur menschlichen Informationsverarbeitung. Durch eine Serie von Studien wurde gezeigt, dass Menschen – und natürlich auch Schüler – große Probleme haben, mit Wahrscheinlichkeiten (also auf 1 normierte Maße) umzugehen. Als viel einfacher und verständnisfördernder stellte sich die kognitive Verarbeitung von Häufigkeiten (bzw. Verhältnissen von natürlichen Zahlen) heraus. In dieser Reihe wird deshalb auf eine traditionelle formale Einführung der Bayesschen Regel verzichtet und es werden spezielle, auf Häufigkeiten basierende Hilfsmittel zur Lösungsfindung verwendet. Die erwähnten Studien belegen den Vorteil dieser Häufigkeitsdarstellungen gegenüber traditionellen Methoden im Hinblick auf den sofortigen und insbesondere den längerfristigen Lernerfolg (vgl. umfassend zu diesem Thema C. Wassner (2004). Förderung Bayesianischen Denkens, Hildesheim: Franzbecker, http://nbn-resolving.org/urn:nbn:de:hebis:34-2006092214705). Die vorliegende Schrift wurde zuerst im Jahre 2004 als Anhang zur o.g. Schrift bei Franzbecker Hildesheim veröffentlicht. Der Verlag hat einer elektronischen Veröffentlichung in der KaDiSto-Reihe zugestimmt.
Resumo:
Die Endozytose und die anschließende Verwertung der aufgenommenen Substanzen ist Gegenstand zahlreicher Untersuchungen. Dabei wird ein besonderes Augenmerk auf die Proteine gelegt, die an diesen Vorgängen beteiligt sind. In der hier vorliegenden Arbeit wird der Lipid-Status der Zelle und Enzyme des Lipid-Stoffwechsels berücksichtigt. Das Ausschalten einer Long Chain-Fatty Acyl CoA Synthetase 1 (LC-FACS), fcsB, in Dictyostelium discoideum hat eine Veränderung der Menge an neutralen Lipiden zur Folge. In diesen LC-FACS2 „Knock-Out“-Zellen wird ein Zusammenhang zwischen neutralen Lipiden und der Phagozytose von Hefen und Bakterien detektiert. Ein Einfluss auf den endozytotischen Transit kann in diesen Zellen nur induziert werden, wenn man zusätzlich den Triglycerid-Hydrolyse-Inhibitor LSD1 in den Zellen exprimiert. Mit Hilfe der Daten wird ein Modell erstellt, indem die Reduktion der Menge an neutralen Lipiden nicht direkt für diesen Phänotyp verantwortlich ist. Es ist vielmehr das Energie-Niveau der Zellen, das die Phagozytoserate beeinflusst. Möglich macht dies ein Pool aus Fettsäuren im Zytoplasma. Dieser besteht aus unaktivierten Fettsäuren und Acyl-CoAs. Auf ihn greifen Kompartimente wie Lipidtropfen, Mitochondrien und Peroxisomen zu, wenn Fettsäuren verstoffwechselt werden sollen. In LC-FACS2 „Knock-Out“-Zellen, wird das Gleichgewicht im Pool in Richtung der unaktivierten Fettsäuren verschoben. Anhand der Größe dieses Pools kann die Zelle ihren Energiestatus messen. Ein höherer Energie-Status führt dann zu einer Reduktion der Phagozytoserate. Vacuolin B Null Zellen (vacB-) zeigen eine extreme Verzögerung im endozytotischen Transit. Schaltet man in diesen Zellen die LC-FACS1 aus (vacB-/fcsA-), so reduziert man ebenfalls die Menge an Triglyceriden. Dies ist darauf zurückzuführen, dass der Acyl-CoA Anteil des Fettsäure-Pools reduziert ist. Diese Reduktion resultiert hier in einer Beschleunigung des endozytotischen Transits. Die Exozytose von vacB--Zellen und vacB-/ fcsA--Zellen unterscheidet sich nicht. Daher wird die Ursache für diese Beschleunigung in veränderten Fusions- bzw. Fissionseigenschaften der Endosomen vermutet. Somit führt das Ausschalten von LC-FACS-Proteinen in Dictyostelium zu einer veränderten Zusammensetzung des Fettsäure-Pools. Dies hat im Fall der LC-FACS1 Modifikationen der Membran-Dynamik und im Fall der LC-FACS2 Änderungen des Energie-Spiegels zur Folge.
Resumo:
Mit ansteigenden Jahresmilchleistungen werden die Kühe einer hohen metabolischen Belastung ausgesetzt, die bei einer suboptimalen Gestaltung der Lebensbedingungen mit einer Erhöhung der Inzidenzrate von Faktorenkrankheiten einhergehen kann. Im Vordergrund der Untersuchungen stand die Frage, inwieweit metabolische Belastungszustände von Milchkühen in der Phase des Puerperiums und in Abhängigkeit von der Milchleistung sowie Belastungen durch eine klinische Erkrankung zu Beginn der Laktation mit Hilfe von Parametern der immunologischen Abwehr und der Reaktion des Immunsystems auf eine Challenge dargestellt werden können. In die Untersuchung wurden insgesamt 68 klinisch gesunde sowie 20 klinisch erkrankte Milchkühe der Rasse Holstein Friesian einbezogen. Die Untersuchungen erfolgten in den Zeiträumen 10-21 Tage sowie 14-15 Wochen nach der Kalbung. Dazu wurden an jeweils drei Untersuchungstagen (Tag 0, 2, 7) Blutproben aus der Vena jugularis entnommen. Zur Stimulierung des unspezifischen Immunsystems wurde in beiden Versuchszeiträumen an den Untersuchungstagen 0 und 2 der Paramunitätsinducer Zylexis® appliziert. Ferner wurde den Kühen zu Beginn der Laktation der Tollwutimpfstoff Rabisin® verabreicht. Für die Auswertung wurden die untersuchten Milchkühe in Gruppen unterteilt. Die klinisch gesunden Kühe wurden anhand der nach Fett und Eiweiß korrigierten 305-Tage-Leistung in die Gruppe M = mittleres Leistungsniveau (Milchmengenleistung 6.500-8.990 kg) und die Gruppe H = hohes Leistungsniveau (Milchmengenleistung 9.000-12.500 kg) aufgeteilt. Die klinisch erkrankten Kühe wurden in der Gruppe K zusammengefasst. Zur Beurteilung der Immunabwehr wurden die Parameter Phagozytoseaktivität der isolierten Neutrophilen Granulozyten, die Vollblutbakterizidie, die Lymphozytenproliferation mit den Mitogenen ConA, PHA und PWM sowie die spezifische Antikörperbildung gegen Tollwut untersucht. Anhand der Parameter Phagozytoseaktivität, Vollblutbakterizidie und Lymphozytenproliferation wurde zusätzlich die Reaktion auf die Challenge mit dem Paramunitätsinducer Zylexis® überprüft. Zur Erfassung der metabolischen Belastungszustände wurden verschiedene Stoffwechselparameter und hämatologische Parameter erfasst. Zu Beginn der Laktation konnten bei den Kühen in der mittleren und hohen Leistungsgruppe signifikant höhere Konzentrationen an ß-Hydroxybuttersäure und Freien Fettsäuren im Vergleich zu der Laktationsmitte festgestellt werden. Die Kühe mit einem hohen Leistungsniveau zeigten darüber hinaus eine signifikant höhere Bilirubinkonzentration am Laktationsanfang gegenüber der Laktationsmitte. Die mittlere Konzentration der freien Fettsäuren lag bei den Kühen in beiden Leistungsgruppen oberhalb des Referenzbereiches und wies auf eine negative Energiebilanz zu Laktationsbeginn hin. Die mittleren Konzentrationen bzw. Enzymaktivitäten der Parameter Cholesterol, Harnstoff, AST, GLDH, γ-GT, Gesamtprotein, Kalzium und Phosphor wiesen in der Laktationsmitte signifikant höhere Werte als am Laktationsanfang auf. Dabei lagen die mittleren Enzymaktivitäten von AST und GLDH sowie die Konzentrationen von Harnstoff und Gesamtprotein in der Laktationsmitte oberhalb des Referenzbereiches. Die untersuchten Stoffwechselparameter wurden durch die Challenge mit einem Paramunitätsinducer nicht signifikant beeinflusst. Hinsichtlich der Immunparameter zeigten die Milchkühe mit einem mittleren Leistungsniveau in Abhängigkeit vom Laktationszeitpunkt zu Beginn der Laktation eine signifikant höhere Phagozytoseaktivität gegenüber der Laktationsmitte (p < 0,05). Die Gruppe mit einem hohen Leistungsniveau wies dagegen keine signifikanten Unterschiede in der Phagozytoseaktivität zwischen den beiden Untersuchungszeiträumen auf. Bei den Immunparametern Vollblutbakterizidie und Lymphozytenproliferation konnten bei den Kühen beider Gruppen keine signifikanten Unterschiede in Abhängigkeit vom Laktationszeitpunkt festgestellt werden. Im Hinblick auf die Milchleistung wiesen die Kühe in den beiden Leistungsgruppen am Untersuchungstag 0 weder zu Beginn noch in der Mitte der Laktation signifikante Unterschiede bezüglich der untersuchten Immunparameter auf. Nach der Challenge durch den Paramunitätsinducer reagierten einzig die Kühe mit einer mittleren Leistung zu Beginn der Laktation auf die Challenge mit einer signifikanten Reduzierung der mittleren Phagozytoseaktivität von Tag 0 zu Tag 2 (p < 0,05). Bei den weiteren untersuchten Immunparametern konnten weder bei den Kühen mit einer mittleren noch mit einer hohen Leistung eine signifikante Reaktion auf die Challenge nachgewiesen werden. Die klinisch erkrankten Kühe zeigten im Vergleich zu den klinisch gesunden Kühen keine unterschiedlichen Konzentrationen bzw. Aktivitäten der untersuchten Stoffwechselparameter. Auch konnten anhand der immunologischen Parameter und der Reaktion auf die Challenge keine Unterschiede zwischen den klinisch gesunden Kühen festgestellt werden. Die in der vorliegenden Untersuchung geprüften metabolischen Belastungen konnten weder anhand der Immunparameter noch durch die Reaktion der Immunparameter auf eine Challenge dargestellt werden. Es wird geschlussfolgert, dass das immunologische Reaktionsvermögen nicht geeignet ist, um als Indikator für Belastungszustände bei der Milchkuh herangezogen zu werden.
Resumo:
Aus der Einleitung: "'Die Wissensgesellschaft existiert noch nicht, aber sie wirft ihre Schatten voraus' (Willke 1998, S. 163). Als zentrales Element der bevorstehenden Umwandlung von der Industrie- in eine Wissensgesellschaft wird dabei die organisierte Wissensarbeit identifiziert. Gegenwärtig werden anscheinend jedoch auch Schatten hervorgebracht, die eine andere Lichtquelle als die Renaissance der Idee einer aufkommenden Wissensgesellschaft (vgl. u. a. Etzioni 1971) haben: 'Der Beruf des Arztes (...) verliert an Ansehen und Respekt. Im täglichen Umgang mit den Patienten ist davon vorläufig noch wenig zu spüren. Glücklicherweise. Gerade als junger Krankenhausarzt am Ende des zweiten chirurgischen Ausbildungsjahres weiß ich: Ohne den hartnäckigen, historisch gewachsenen Nimbus des grundsätzlichen Wohltuenden, des Vertrauenswürdigen und Kundigen könnten Ärzte ihre täglichen Aufgaben niemals angemessen erfüllen. (...) Wo langjährige persönliche Vertrauensbildung zum Arzt fehlt, entsteht beim Patienten oft genug nur auf diese Weise die Überzeugung, er sei in guten Händen. (...) Gleichsam als Zins und Tilgung für den erhaltenen Autoritätskredit sehe ich mich in der Pflicht, das Ansehen meines Berufstandes zu wahren. (...) Kurz: Ohne den geliehenen Glanz des Arztberufes keine Chance auf Erfüllung im Beruf. (...) Die gegenwärtig von den Ärzten selbst, von den Krankenkassen, von Politikern und den Medien mit Lust betriebene Demontage des ärztlichen Nimbus wird sich noch als schwerer Fehler erweisen. Denn wo Ärzte ohne Glanz und Status sind, bleiben schließlich die Patienten auf sich allein gestellt zurück' (Pohland 1999, S. 13). Wird dieser Beobachtung ein empirischer Gehalt zugestanden, dann spricht einiges für die Annahme, daß parallel mit der Expansion wissensintensiver Dienstleistungen sich eine schleichende Entwertung von Expertenkulturen vollzieht und bisher auf exklusives Wissen basierende professionelle Tätigkeiten ihre ausschließliche Deutungsmacht verlieren. Mit leichtem Zynismus kann infolgedessen konstatiert werden, daß die wissenschaftliche Sozialpädagogik in diesem Punkt einmal wirklich dem gesellschaftlichen Zeitgeist voraus war. Denn auf ein der medizinischen Profession entsprechendes selbstverständliches, traditionell gewachsenes Ansehen konnte die Profession der Sozialen Arbeit in ihrer Geschichte noch nie verweisen. Respekt und Ansehen müssen sich die sozialpädagogischen Professionellen bis heute tagtäglich neu erobern. Und wo diese interaktiv konstituierende Vertrauensbildung nicht gelingt, kann auf kein Autoritätskredit zurückgegriffen werden, um anvisierten Hilfe- und Bildungsprozesse effektiv zu aktivieren. Diplom-SozialpädagogInnen und SozialarbeiterInnen, ErzieherInnen und DiplompädagogInnen in der Sozialen Arbeit befürchten demzufolge primär auch nicht die Demontage ihres Ansehens. Ihr Ansehen in der Öffentlichkeit ist seit Jahrzehnten äußerst fragil. Die Sozialpädagogik kann, so ein vielfach nachzulesender Befund (vgl. Haupert/Kraimer 1991; Thole/Küster-Schapfl 1997; Niemeyer 1990, 1998; Rauschenbach 1999), weder auf eine Kartographie ausformulierter und für sie reservierter Wissensbestände verweisen noch hat sie einen eindeutigen, klar zu benennenden Ort in der Praxis, ein einheitliches Profil der Ausbildung, eine selbstverständliche, von allen ihren VertreterInnen geteilte disziplinäre Heimat. Der Beitrag wird diesen Befund aus professionstheoretischer Sicht vertiefen und erstens einige Etappen des sozialpädagogischen Professionalisierungsprojektes der jüngeren Zeit resümieren, zweitens die aktuellen empirischen Suchbewegungen nach den Verwendungsformen von fachlichen Wissen im sozialpädagogischen Handeln kritisch gegenlesen sowie drittens die sich daraus ergebenden Konsequenzen sowohl für die akademische Ausbildung als auch für die Performanz der Praxis Sozialer Arbeit diskutieren."
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Computersimulation des Rissinitiierungsprozesses für einen martensitischen Stahl, der der niederzyklischen Ermüdung unterworfen wurde. Wie auf der Probenoberfläche beobachtet wurde, sind die Initiierung und das frühe Wachstum dieser Mikrorisse in hohem Grade von der Mikrostruktur abhängig. Diese Tatsache wurde in mesoskopischen Schädigungsmodellen beschrieben, wobei die Körner als einzelne Kristalle mit anisotropem Materialverhalten modelliert wurden. Das repräsentative Volumenelement (RVE), das durch einen Voronoi-Zerlegung erzeugt wurde, wurde benutzt, um die Mikrostruktur des polykristallinen Materials zu simulieren. Spannungsverteilungen wurden mit Hilfe der Finiten-Elemente-Methode mit elastischen und elastoplastischen Materialeigenschaften analysiert. Dazu wurde die Simulation zunächst an zweidimensionalen Modellen durchgeführt. Ferner wurde ein vereinfachtes dreidimensionales RVE hinsichtlich des sowohl dreidimensionalen Gleitsystems als auch Spannungszustandes verwendet. Die kontinuierliche Rissinitiierung wurde simuliert, indem der Risspfad innerhalb jedes Kornes definiert wurde. Die Zyklenanzahl bis zur Rissinitiierung wurde auf Grundlage der Tanaka-Mura- und Chan-Gleichungen ermittelt. Die Simulation lässt auf die Flächendichten der einsegmentige Risse in Relation zur Zyklenanzahl schließen. Die Resultate wurden mit experimentellen Daten verglichen. Für alle Belastungsdehnungen sind die Simulationsergebnisse mit denen der experimentellen Daten vergleichbar.
Resumo:
Gegenstand dieser Dissertation sind Ultrakurzzeitexperimente im Bereich der kohärenten Kontrolle im schwachen wie auch im starken Feld. Untersucht wird am Modellsystem Kaliumatom die resonanzunterstützte Anregungs- und Ionisationsdynamik mit Hilfe der Photoelektronenspektroskopie. Die Kaliumatome werden mittels eines Atomstrahles bzw. mit Hilfe von Dispensern ins Vakuum entlassen. Angeregt und ionisiert werden sie mit Hilfe von Femtosekundenlaserpulsen (mit einer Pulslänge größer/gleich 30 fs). Die Flugzeiten der durch Ionisation freigesetzten Photoelektronen werden mit Hilfe einer magnetischen Flasche detektiert und in ihre kinetischen Energien umkalibriert. Drei Experimente werden in dieser Arbeit beschrieben: Im schwachen Feld sind Interferenzen von freien Elektronenwellenpaketen das Thema: Mit Hilfe eines Analogons zu Thomas Youngs Doppelspaltexperiment wird demonstriert, dass Kohärenzeigenschaften von Femtosekundenlaserpulsen auf Elektronenwellenpakete, welche sich im Kontinuum befinden, übertragbar sind. Als Referenzsystem für das Verständnis der Starkfeldkontrolle interessiert das Autler-Townes-Doublet im Photoelektronenspektrum des Kaliumatoms: Es wird gezeigt, dass sowohl durch das starke Laserfeld, als auch auf Grund der optische Phase zweier Laserpulse, die quantenmechanische Phase eines Atomzustandes gleichermaßen manipuliert werden kann. Das aufgezeigte Experiment liefert die Basis für ein in unseren Laboratorien entwickeltes völlig neuartiges Starkfeldkontrollszenario, welches „Selective Population Of Dressed States“ (SPODS) getauft wurde. Im dritten Experiment wird der Starkfeldbereich auf eine Laserintensität über 3*10^13 W/cm^2 ausgedehnt! Beginnend mit I = 1*10^11 W/cm^2 bis zur eben angegebenen größten Intensität wird mittels linear wie auch zirkular polarisiertem Laserlicht das Kaliumatom bei einer Vielzahl von Messungen ionisiert werden. Mit Hilfe der gemessenen Photoelektronenspektren wird in Abhängigkeit der Laserintensität die Aufspaltung des Autler-Townes-Doublets vermessen. Zudem werden unter Einbeziehung des schwachen und des starken Feldes Steigungsanalysen der Schwell- sowie der Above-Threshold-Ionisation-Photoelektronenausbeute aufgezeigt. Im Gegensatz zu Starkfeldexperimenten an nicht resonanten Systemen (z. B. Xenon), ist der Fall der resonanten Anregung bislang weitgehend ununtersucht. Für die resonante Anregung zeigt diese Arbeit somit erstmals einen Referenzdatensatz.
Resumo:
Verschiedene Bedeutungen sind mit dem Begriff Mode verbunden. Mode ist nicht ausschließlich ein Synonym für Bekleidung. Vielmehr bezeichnet Mode den ständigen Wandel kollektiver Verhaltensweisen und bildet damit das Gegenstück zu Traditionen. Die Vergänglichkeit einer Mode ist ebenso Merkmal wie ein Verhalten, daß aus der Interaktion der Menschen resultiert. Mode läßt sich als exogener Schock modelliert oder durch endogene Prozesse erzeugt abbilden. Im synergetischen Modell erzeugen Personen auf der Makroebene bestimmte Ordner, die als Moden interpretiert werden können und an denen sich die Individuen wiederum orientieren. Neben einer umfassenden Betrachtung des Terminus Mode wird der Stand der sozial- und wirtschaftswissenschaftlichen Forschung zur Erklärung von Mode referiert. Ausgangspunkt der Dissertation ist das Fehlen eines ökonomischen Erklärungsansatzes der Mode, der unter Berücksichtigung der wesentlichsten Motive menschlichen Handelns die Vielseitigkeit dieses kollektiven Phänomens in einem mathematischen Modell abbildet. Ein solches Modell wird in der Arbeit entwickelt. Neben den sozial abhängigen Verhaltensweisen, die ein fundamentales Wesensmerkmal der Mode darstellen, gilt dem Aspekt der Neuheit im Kontext der Mode besondere Aufmerksamkeit. Auf das Problem, Neugierdeverhalten und Neuheit zu modellieren, wird detailliert eingegangen. Es ist weder Ziel der Arbeit, den Ursprung der inhaltlichen Ausgestaltung einer Mode zu identifizieren, noch die konkreten Entstehungszusammenhänge von Neuheit herauszuarbeiten. Vielmehr wird der Wirkungszusammenhang von Neuem im Kontext der Mode analysiert, um verschiedene Entstehungszusammenhänge von Mode darstellen zu können. Außerdem wird eine eigene empirische Studie zum Verhalten von Personen in bezug auf Kleidung und deren Neuartigkeit vorgestellt. Die Erhebungsdaten werden mit Hilfe der sogenannten Kohonenkarte klassifiziert, wobei insbesondere nichtlineare Zusammenhänge zwischen den Variablen berücksichtigt werden können. Im Rahmen eines synergetischen Erklärungsansatzes ist diese Karte deshalb von großem Interesse, weil sie sich selbst organisiert und deshalb dem synergetischen Erklärungsansatz modelladäquat ist.