62 resultados para Weniger, Erich

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit 1 wird ein neues, erweiter- und konfigurierbares Visualisierungsverfahren zur Interaktion mit komplex strukturierten Datenobjekten vorgestellt. Die Erweiterbarkeit bezieht sich dabei auf die vom Verfahren einsetzbaren Techniken der Visualisierung (Visualisierungsfunktionen) und auf die in das Verfahren integrierte Interaktion. Die mit dem Verfahren generierbaren Repräsentationen sind besonders zum Browsen in den Objekten und zum Editieren der Objekte geeignet, die typischerweise in objekt-relationalen Datenbanken gespeichert werden. Die generierten Repräsentationen können modulartig in vorhandene graphische Benutzerschnittstellen integriert werden oder als vollständige graphische Benutzerschnittstelle einer Anwendung eingesetzt werden. Modularität und Orthogonalität, also die sinnvolle Aufteilung in Funktionseinheiten und die Möglichkeit, Methoden einer Komponente auf andere Komponenten anzuwenden, werden als Mittel eingesetzt, mit weniger Komponenten mehr Funktionalität zu erreichen. Für den Teilaspekt der Benutzerschnittstelle wurde dies durch Visualisierungsvorschriften für Datenobjekte (Relationen, Tabellen) vorgeschlagen, indem ein Baum aus der Strukturdefinition (Schema) abgeleitet und als persistentes (Meta-) Datenobjekt in der Datenbank gespeichert wird. Sie werden kurz "Visualisierungen" genannt. Wie gezeigt werden kann, sind sechs Meta-Objekte die notwendige und hinreichende Anzahl und Ausprägung von Schemata und Visualisierungen zur Definition und visuellen Repräsentation beliebiger Anwendungs-Objekte (Schemata und durch sie definierte Tabellen), inklusive ihrer eigenen Schemata und Visualisierungen. Der Einsatz der Selbstreferenzierung mit Meta-Objekten hat zu mehr Sicherheit und Kompaktheit ohne nenneswerte Laufzeiteinbußen geführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Funktionelle Analyse der LC-FACS in Dictyostelium discoideum" Das Dictyostelium discoideum Gen fcsA kodiert für ein 75 kDa großes Protein. Es kann durch Homologieanyalysen der Amino-säuresequenz zu den "long-chain fatty acyl-CoA"-Synthetasen ge-rechnet werden, die lang-kettige Fettsäuren durch die kovalente Bindung von Coenzym A akti-vie-ren und damit für diverse Reak-tionen in Stoffwechsel und Molekül-Synthese der Zelle verfügbar machen. Die hier untersuchte D. discoideum LC-FACS lokalisiert als peripher assoziiertes Protein an der cytosolischen Seite der Membran von Endo-somen und kleiner Vesikel. Bereits kurz nach der Bildung in der frühen sauren Phase kann die Lokalisation der LC-FACS auf Endosomen ge-zeigt werden. Sie dissoziiert im Laufe ihrer Neutra-li-sierung und kann auf späten Endosomen, die vor ihrer Exocytose stehen nicht mehr nach-gewiesen werden. Ein Teil der kleinen die in der gesamte Zelle verteilten kleinen Vesikel zeigt eine Kolokalisation mit lysosomalen Enzymen. Trotz des intrazellulären Verteilungs-mus-ters, das eine Beteiligung dieses Pro-teins an der Endocytose nahe-legt, konnte kein signifikanter Rückgang der Pino- und Phagocytose-Rate in LC-FACS Nullmutanten beobachtet werden. Der endo-cy-to-ti-sche Transit ist in diesen Zellen etwas verlängert, außerdem zeigen die Endosomen einen deutlich erhöhten pH-Wert, was zu einer weniger effektiven Prozessierung eines lysosomalen Enzyms führt (a-Mannosidase). Die Funktion der LC-FACS ist die Aufnahme von langkettigen Fettsäuren aus dem Lumen der Endosomen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación presenta una propuesta para la solución integral de los problemas del transporte urbano en Santiago de Cali, una ciudad con 2.3 millones de habitantes en el sur-occidente de Colombia, aplicando criterios del desarrollo sostenible. Una parte importante de la solución integral del transporte urbano es la propuesta novedosa para crear condiciones para la movilidad segura de peatones y ciclistas en toda la ciudad. El autor propone la redistribución del espacio publico que no sólo incluye los andenes, plazas y parques, sino tambien los carriles para el tráfico motorizado: uno de dos carriles de las vias ya construidas - por lo menos 4 de los 7 metros de la calle - es para el uso de peatones y ciclistas que son protegidos del tráfico vehicular motorizado por materas con plantas y flores. Las medidas para peatones y ciclistas se complementan con la creación de una amplia zona peatonal que incluye un espacio organizado para los trabajos del sector informal de la economia. Para el transporte publico colectivo propone el autor una solución con la tecnologia de los buses de piso bajo como alternativa a los buses y estaciones de plataforma alta usados en el modelo de TransMilenio en la capital colombiana Bogotá. Los buses de piso bajo permiten la creación de un sistema de transporte publico colectivo mucho mas eficiente y rápido, económico para los pasajeros y a costos de menos de diez porciento de la solución de Bogotá. La solución integral del transporte urbano se complementa con una reforma del transporte en taxis y con medidas para reducir el uso de los vehiculos particulares. La solución integral es justificada en cada una de sus medidas aplicando criterios ambientales, sociales, psicológicos, económicos, financieros y culturales del desarrollo sostenible. Se presentan los indicadores que permiten evaluar la situación y los posibles efectos de los cambios propuestos para lograr la sostenibilidad en el transporte urbano en Santiago de Cali. Los resultados de la investigación se pueden aplicar tambien en otras ciudades (de Colombia).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kernthese dieser Arbeit ist eine Leerstelle. Ihre Formulierung beruht auf einer Beobachtung, wie sie von William Gibson stammen könnte: kulturell avantgardistische Gruppen der Gesellschaft internalisieren für ihre technologisch gestützten Praktiken futuristische Phantasmen geschichtlicher Vorläufer, die in Literatur und Mediengeschichte detektivisch aufspürbar sind. Werden diese Verinnerlichungen in aktuelle Fantasien umgewandelt, entsteht eine hybride Mischung vielfältigster Beschäftigungen, Reflexionen und Entwürfe von Technokultur. Bringt man diese Kopplungen auf das Jahr 3000, die nächste epochale zukünftige Zäsur, wird die Absurdität des Projekts, Technokultur überhaupt zu thematisieren deutlich. Technokultur ist im dynamischen Wandel sozio-ikonografisch untersuchbar, wird aber durch Unschärferelation zum object trouvé und Triebmoment für eine in es selbst hinein assimilierbare Analyse. Der daraus folgenden Vermessenheit kann durch instrumentelle Serendipity begegnet werden, die hier nicht Effekt wäre, stattdessen als Methode Verwendung findet: Finden statt Suchen. Das verhältnismäßig neue Schreib/Lese-Medium Hypertext bietet sich dafür als geradezu prädestiniert an. Hypertext ist prinzipiell unabgeschlossen, er folgt hier Arbeitsprinzipien wie sie seit den frühen 1990ern in Online-Tagebüchern und seit den frühen 2000er Jahren in Weblogs (World Wide Web Logbooks) auszumachen sind: Notizen, Found Text (analog zu Found Footage), Zitate, Fragmente, die kurze Form, kurz: wissenschaftliche Alltagstextproduktion wird nach Ordnungskriterien a-systematisiert und verwoben - weniger archiviert denn gesammelt. Eine Art Second Hand Theorie entsteht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Janus Kinase / signal transducer and activator of transcription (JAK/STAT) Signal- transduktionsweg wird für viele Entwicklungsvorgänge benötigt und spielt eine zentrale Rolle bei der Hämatopoese und bei der Immunantwort. Obwohl der JAK/STAT-Signalweg in den vergangenen Jahren Gegenstand intensiver Forschung war, erschwert die Redundanz des Signalwegs bei Wirbeltieren genetische Untersuchungen zur Identifizierung derjenigen Mechanismen, die den JAK/STAT-Signalweg regulieren. Der JAK/STAT-Signaltransduktionsweg ist evolutionär konserviert und ebenfalls bei der Taufliege Drosophila melanogaster vorhanden. Im Gegensatz zu Wirbeltieren ist der Signaltransduktionsweg von Drosophila weniger redundant und beinhaltet folgende Hauptkomponenten: den Liganden Unpaired (Upd), den Transmembranrezeptor Domeless (Dome), die einzige JAK-Tyrosinkinase Hopscotch (hop), sowie den Transkriptionsfaktor STAT92E. In der vorliegenden Arbeit wird die Rolle des JAK/STAT-Signalwegs bei der zellulären Proliferation mithilfe der Modellsysteme der Flügel- und der Augen-Imaginalscheiben von Drosophila charakterisiert. "Loss-of-function"- und "Gain-of-function"-Experimente zur Verminderung beziehungs-weise Erhöhung der Signalaktivität zeigten, dass der JAK/STAT-Signalweg eine Rolle bei der zellulären Proliferation der Flügel-Imaginalscheiben spielte, ohne die Zellgröße oder Apoptose zu verändern. Bei der Flügelentwicklung während des zweiten und des frühen dritten Larvalstadiums war die Aktivität des JAK/STAT-Signalwegs sowohl notwendig für die zelluläre Proliferation als auch hinreichend, um Überproliferation anzutreiben. Allerdings änderte sich während der späten dritten Larvalstadien die JAK/STAT-Signalaktivität, sodass endogene STAT92E-Mengen einen anti-proliferativen Effekt im gleichen Gewebe aufwiesen. Weiterhin reichte die ektopische Aktivierung des JAK/STAT-Signalwegs zu diesem späten Entwicklungszeitpunkt aus, um die Mitose zu inhibieren und die Zellen in der Phase G2 des Zellzyklus zu arretieren. Diese Ergebnisse legen den Schluss nahe, dass der JAK/STAT-Signalweg sowohl pro-proliferativ in frühen Flügelscheiben als auch anti-proliferativ zu späten Stadien der Flügelscheiben-Entwicklung wirken kann. Dieser späte anti-proliferative Effekt wurde durch einen nicht-kanonischen Mechanismus der STAT92E-Aktivierung vermittelt, da späte hop defiziente Zellverbände im Vergleich zu Wildtyp-Zellen keine Veränderungen im Ausmaß der zellulären Proliferation aufwiesen. Ferner konnte gezeigt werden, dass eine während der Larvalstadien exprimierte dominant-negative und im N-Terminus deletierte Form von STAT92E (?NSTAT92E) nicht für den anti-proliferativen Effekt verantwortlich ist. Diese Tatsache ist ein weiteres Indiz dafür, dass das vollständige STAT92E den späten anti-proliferativen Effekt verursacht. Um Modulatoren für die von JAK/STAT vermittelte zelluläre Proliferation zu identifieren, wurde ein P-Element-basierter genetischer Interaktions-Screen in einem sensibilisierten genetischen Hintergrund durchgeführt. Insgesamt wurden dazu 2267 unabhängige P-Element-Insertionen auf ihre Wechselwirkung mit der JAK/STAT-Signalaktivität untersucht und 24 interagierende Loci identifiziert. Diese Kandidaten können in folgende Gruppen eingeordnet werden: Zellzyklusproteine, Transkriptionsfaktoren, DNA und RNA bindende Proteine, ein Mikro-RNA-Gen, Komponenten anderer Signaltransduktionswege und Zelladhäsionsproteine. In den meisten Fällen wurden mehrere Allele der interagierenden Kandidatengene getestet. 18 Kandidatengene mit übereinstimmend interagierenden Allelen wurden dann zur weiteren Analyse ausgewählt. Von diesen 18 Kandidaten-Loci wurden 7 mögliche JAK/STAT-Signalwegskomponenten und 6 neue Zielgene des Signalwegs gefunden. Zusammenfassend wurde das Verständnis um STAT92E verbessert. Dieses Protein hat die gleiche Funktion wie das STAT3-Protein der Wirbeltiere und treibt die zelluläre Proliferation voran. Analog zu STAT1 hat STAT92E aber auch einen anti-proliferativen Effekt. Ferner wurden 24 mögliche Modulatoren der JAK/STAT-Signalaktivität identifiziert. Die Charakterisierung dieser Wechselwirkungen eröffnet vielversprechende Wege zu dem Verständnis, wie JAK/STAT die zelluläre Proliferation reguliert und könnte bei der Entwicklung von neuartigen therapeutischen Targets zur Behandlung von Krebskrankheiten und Entwicklungsstörungen beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die weltweit agierenden sozialen Investitionsfonds haben ihren konzeptionellen Ursprung in dem 1986 erstmals in Bolivien implementierten Sozialen Notstandsfond. Der Fonds hatte die schnelle und fokussierte soziale Abfederung der unter der “Ägide“ der internationalen Finanzorganisationen im bolivianischen Kontext seit 1985 umgesetzten neoliberalen Strukturanpassungsprogramme zum Ziel. Resultierend aus den überwiegend positiven Erfahrungen der ersten Fondsgeneration und der im Verlauf der letzten zwei Dekaden stetigen Weiterentwicklung der nationalen Fondsstruktur kommt dem bolivianischen Modell im Hinblick auf die zukünftige Ausgestaltung von Sozialfondsstrukturen bis heute eine besondere Bedeutung zu. Anhand der verschiedenen bolivianischen Sozialfondsgenerationen fokussiert das vorliegende working paper die Interaktionen und Interdependenzen, die sich innerhalb der internationalen, der nationalen und der lokalen Ebene abzeichnen. So lässt sich im Kontext des bolivianischen Sozialfonds ein beachtlicher Kompetenztransfer zugunsten der internationalen Ebene konstatieren, der durchaus als “Denationalisierung“ der nationalen Sozialpolitik beschrieben werden kann. Gleichzeitig zeigt die vorliegende Untersuchung, dass die nationale Ebene diese Neuverteilung traditionell nationalstaatlicher Verantwortungsbereiche sowohl über Legitimationsgewinne als auch politische Gestaltungsspielräume partiell zu kompensieren vermochte. Mit Blick auf die lokale Ebene dominierten indes klassische top-down-Logiken. Die lokale Ebene trat somit weniger als gestaltender Akteur, denn als passiver Adressat sozialpolitischer Prioritätensetzungen auf.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Schnell ist das Ziel der Medienpädagogik mit "Medienkompetenz" benannt. Wenn man die Geschichte der Medienpädagogik und Mediendidaktik durchgeht, dann ist mit dieser Zieldefinition schon eine Menge erreicht. Es ist ein Erfolg der Medienpädagogik als Disziplin, dass sich eine von Politik, Wirtschaft und Schule akzeptierte Zielvorstellung heraus kristallisiert hat. Reicht diese allgemeine Akzeptanz jedoch aus, um Medien als Bildungsaufgabe zu bestimmen? Will man sich der Bildungsaufgabe theoretisch wie praktisch stellen, dann geht es um nicht weniger als die Frage, wie Medien in das Verhältnis der Menschen zu sich, zu anderen, zur Kultur, zu den Dingen und Ereignissen vermittelnd eingreifen, vielleicht sogar Prägekraft entwickeln. Das Verhältnis der Menschen zu sich, zur sozialen, dinglichen und kulturellen Umwelt war und ist immer in Bewegung. In diesem Verhältnis entstanden und entstehen typische Formen von Subjektivität, verläuft Sozialisation. Subjektivität konstituiert sich immer in einem unstetigen Feld von subjektivem Innen und objektivem Außen, von individueller Erfahrung und institutioneller Festlegung, von vorgegebener Kultur und einmaliger Aneignung. Im Moment erleben wir dieses Feld als besonders unstetig. Deshalb die Frage, was sich aktuell verändert, um die für die Konstitution von Subjektivität, anders formuliert, um die für Bildung und Sozialisation maßgebliche Konstellation im Medienbereich zu entdecken. Vielleicht lassen sich so Themenfelder der Medienpädagogik neu akzentuieren. Deshalb einführend einige Stichworte zur kulturellen und gesellschaftlichen Entwicklung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Mittelpunkt der Arbeit steht die Entwicklung eines Konzeptes einer psychoanalytischen Prävention zur Verhinderung von psychischen und psychosomatischen Erkrankungen bei Kindern im Alter von 0-3 Jahre unter Einbeziehung ihrer Eltern. Dieses soll nicht lediglich die Entstehung von Symptomen bei Kindern in statu nascendi verhindern, sondern darüber hinausgehend der Entfaltung einer stabilen altersgemäßen Persönlichkeit im Rahmen einer adäquaten, kindlichen, psychischen und körperlichen Entwicklung dienen. Ohne mögliche genetische Kofaktoren in Abrede zu stellen, werden in dieser Arbeit die schon in der Säuglingszeit beginnenden, sozialen und familiendynamischen Entwicklungsbedingungen von Kindern als die entscheidenden Variablen in den Überlegungen zur Psychopathologie angesehen, die auch in der Entwicklung des Gehirns über die daraus resultierenden frühen Bindungserfahrungen mit den Eltern eine entscheidende Rolle spielen. So können die Wurzeln von später verdrängten kindlichen Konflikten mit den Wünschen nach einem emotionalen Austausch in Bezug auf Ohnmachtserlebnisse bis in die früheste Kindheit hinein reichen und später u.a. zu Symptomen von Unaufmerksamkeit und Bewegungsunruhe führen. In der vorliegenden Arbeit werden psychoanalytisch reflektierte Interviews als hypothesengenerierendes Forschungsinstrument angewandt, mit dem sich das in der Übertragung und Gegenübertragung vermittelnde, individuelle, zugrunde liegende, innere Erleben erschließen lässt. Die dabei generierten Hypothesen werden durch Evidenzerlebnisse und Erweiterungen der Handlungsspielräume der Betroffenen bestätigt oder verworfen. Anhand einer nach intrafamiliären Kommunikationsstörungen, sozialen Status, psychischer und körperlicher Komorbidität und Alter ausgewählten Anzahl von fünf Einzelfalldarstellungen von beteiligten Familien wird ein Einblick in die auf die inner familiären Konfliktkonstellationen ausgerichteten Interventionstechniken ermöglicht. Unter Berücksichtigung der Abwehrstruktur der beteiligten Personen und einer auf einem emotionalen Verstehen basierenden Begleitung kommen dabei Interventionen, Konfrontationen, Deutungen und gelegentlich auch Beratungen zur Anwendung. Bei allen Familien konnte durch neue Beziehungserfahrungen zunächst in den Sitzungen und danach auch außerhalb eine Symptom- und Konfliktreduzierung bzw. -auflösung bei den Kindern und einigen der Erwachsenen erreicht werden. Zwei Erwachsene begannen eine eigene Psychotherapie, um u.a. ihre emotionalen Handlungsspielräume ihren Kindern gegenüber zu erweitern. Die Replizierbarkeit der Ergebnisse der Studie müssen der Langzeituntersuchung an ausreichend großen und differenzierten Stichproben vorbehalten bleiben.