285 resultados para Allgemein bildendes Schulwesen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Privatisierung im Hochschulwesen ist eine neue internationale Tendenz, die in der Welt in den letzten 25 Jahren zu umfangreichen wissenschaftlichen Diskussionen zwischen den Experten dieses Gebietes geführt hat. Die private Hochschulbildung erstreckt sich über ein großes Feld der verschiedenen Studiengänge. Ihre Ziele und Aufgaben sowie ihre Bedeutung unterscheiden sich von Staat zu Staat. Ebenso ist die private Hochschulbildung unterschiedlich aufgebaut hinsichtlich ihrer Größe, Finanzierung usw. Die Errichtung einiger privater Hochschulen in Ägypten beeinflusste ebenfalls die wissenschaftliche Diskussion zwischen den Experten bis heute. Um die ägyptische Erfahrung in diesem Gebiet beurteilen zu können, wurde die deutsche Situation vergleichend betrachtet. Das Ziel der Dissertation ist die Beschreibung und Analyse des aktuellen Standes der Entwicklung des privaten Hochschulwesens in Ägypten und in Deutschland, um Ähnlichkeiten und Unterschiede herauszuarbeiten, Nachteile und Vorteile der Entwicklung in beiden Ländern zu bewerten sowie Vorschläge zur Verbesserung der Lage zu machen. Als Untersuchungsmethode wurde die Fallstudie benutzt, dabei wurden jeweils fünf repräsentative Hochschulen ausgewählt. Sie unterschieden sich in den Studienangeboten, der regionalen Lage, der Größe, der Hochschulart, der fachlichen Ausrichtung und dem Gründungsdatum. Das Thema wurde in zwei Teilen behandelt, in einem theoretischen und in einem praktischen Teil. Im theoretischen Teil werden die Geschichte des Hochschulwesens allgemein und seine Entwicklung, Ziele und Aufgaben sowie die gegenwärtige Situation behandelt. In diesem Kontext werden auch die Bedeutung der privaten Hochschulen, ihre Entstehung und Entwicklung, ihre Ziele und Aufgaben, ihre Finanzierung und ihre gesetzliche Lage untersucht; die ausgewählten privaten Hochschulen werden detailliert beschrieben. Der praktische Teil dieser Untersuchung erfolgte vorwiegend in Form von Befragungen an den ausgewählten privaten Hochschulen. Die wichtigsten behandelten Bereiche der Befragungen waren: - Beziehungen zwischen Staat und Hochschule, - Ziel und Aufgaben der Leistungsbewertung, - Finanzierung, - Auswahl der Studienbewerber, - Lehrkörper, - Lehrpläne und -programme. Ergebnisse: Die privaten Hochschulen in Ägypten konnten bis zum heutigen Tag ihre Ziele hinsichtlich der Lehre und der Forschung nicht erreichen. Aufgrund der häufigen Veränderungen bei den staatlichen Rahmenbedingungen wurde die angestrebte Flexibilität nicht erreicht. Zusätzlich leiden die neugegründeten privaten Hochschulen unter der mangelhaften Finanzierung, da sie sich vorwiegend aus Studiengebühren tragen. Deshalb leisten sie keinen Beitrag für die Gesamtfinanzierung des ägyptischen Hochschulsektors. Eine Ausnahme stellt die Französische Universität in Kairo dar. Die deutschen privaten Hochschulen haben ihre Ziele hinsichtlich der Lehre und der Forschung zu einem großen Anteil erreicht. Dies erfolgte vor allem durch eine größere Flexibilität, eine bessere finanzielle Ausstattung sowie zusätzliche unterschiedliche Quellen der Finanzierung. Der Beitrag einiger privater Hochschulen an der Gesamtfinanzierung des deutschen Hochschulwesens ist groß. Generell beruht die Qualität des privaten Hochschulwesens auf der Bildungsphilosophie sowie der allgemeinen Politik des Staates und darauf, wie weit den Anforderungen der Gesellschaft entsprochen wird und ob ein Beitrag zu Entwicklung des Hochschulwesens geleistet wird. Weiterhin ist deren Erfolg von einer ausreichenden Finanzierung abhängig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper re-addresses the issue of a lacking genuine design research paradigm. It tries to sketch an operational model of such a paradigm, based upon a generic design process model, which is derived from basic notions of evolution and learning in different domains of knowing (and turns out to be not very different from existing ones). It does not abandon the scientific paradigm but concludes that the latter has to be embedded into / subordinated under a design paradigm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The utilization and management of arbuscular mycorrhiza (AM) symbiosis may improve production and sustainability of the cropping system. For this purpose, native AM fungi (AMF) were sought and tested for their efficiency to increase plant growth by enhanced P uptake and by alleviation of drought stress. Pot experiments with safflower (Carthamus tinctorius) and pea (Pisum sativum) in five soils (mostly sandy loamy Luvisols) and field experiments with peas were carried out during three years at four different sites. Host plants were grown in heated soils inoculated with AMF or the respective heat sterilized inoculum. In the case of peas, mutants resistant to AMF colonization were used as non-mycorrhizal controls. The mycorrhizal impact on yields and its components, transpiration, and P and N uptake was studied in several experiments, partly under varying P and N levels and water supply. Screening of native AMF by most probable number bioassays was not very meaningful. Soil monoliths were placed in the open to simulate field conditions. Inoculation with a native AMF mix improved grain yield, shoot and leaf growth variables as compared to control. Exposed to drought, higher soil water depletion of mycorrhizal plants resulted in a haying-off effect. The growth response to this inoculum could not be significantly reproduced in a subsequent open air pot experiment at two levels of irrigation and P fertilization, however, safflower grew better at higher P and water supply by multiples. The water use efficiency concerning biomass was improved by the AMF inoculum in the two experiments. Transpiration rates were not significantly affected by AM but as a tendency were higher in non-mycorrhizal safflower. A fundamental methodological problem in mycorrhiza field research is providing an appropriate (negative) control for the experimental factor arbuscular mycorrhiza. Soil sterilization or fungicide treatment have undesirable side effects in field and greenhouse settings. Furthermore, artificial rooting, temperature and light conditions in pot experiments may interfere with the interpretation of mycorrhiza effects. Therefore, the myc- pea mutant P2 was tested as a non-mycorrhizal control in a bioassay to evaluate AMF under field conditions in comparison to the symbiotic isogenetic wild type of var. FRISSON as a new integrative approach. However, mutant P2 is also of nod- phenotype and therefore unable to fix N2. A 3-factorial experiment was carried out in a climate chamber at high NPK fertilization to examine the two isolines under non-symbiotic and symbiotic conditions. P2 achieved the same (or higher) biomass as wild type both under good and poor water supply. However, inoculation with the AMF Glomus manihot did not improve plant growth. Differences of grain and straw yields in field trials were large (up to 80 per cent) between those isogenetic pea lines mainly due to higher P uptake under P and water limited conditions. The lacking N2 fixation in mutants was compensated for by high mineral N supply as indicated by the high N status of the pea mutant plants. This finding was corroborated by the results of a major field experiment at three sites with two levels of N fertilization. The higher N rate did not affect grain or straw yields of the non-fixing mutants. Very efficient AMF were detected in a Ferric Luvisol on pasture land as revealed by yield levels of the evaluation crop and by functional vital staining of highly colonized roots. Generally, levels of grain yield were low, at between 40 and 980 kg ha-1. An additional pot trial was carried out to elucidate the strong mycorrhizal effect in the Ferric Luvisol. A triplication of the plant equivalent field P fertilization was necessary to compensate for the mycorrhizal benefit which was with five times higher grain yield very similar to that found in the field experiment. However, the yield differences between the two isolines were not always plausible as the evaluation variable because they were also found in (small) field test trials with apparently sufficient P and N supply and in a soil of almost no AMF potential. This similarly occurred for pea lines of var. SPARKLE and its non-fixing mycorrhizal (E135) and non-symbiotic (R25) isomutants, which were tested in order to exclude experimentally undesirable benefits by N2 fixation. In contrast to var. FRISSON, SPARKLE was not a suitable variety for Mediterranean field conditions. This raises suspicion putative genetic defects other than symbiotic ones may be effective under field conditions, which would conflict with the concept of an appropriate control. It was concluded that AMF resistant plants may help to overcome fundamental problems of present research on arbuscular mycorrhiza, but may create new ones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kernthese dieser Arbeit ist eine Leerstelle. Ihre Formulierung beruht auf einer Beobachtung, wie sie von William Gibson stammen könnte: kulturell avantgardistische Gruppen der Gesellschaft internalisieren für ihre technologisch gestützten Praktiken futuristische Phantasmen geschichtlicher Vorläufer, die in Literatur und Mediengeschichte detektivisch aufspürbar sind. Werden diese Verinnerlichungen in aktuelle Fantasien umgewandelt, entsteht eine hybride Mischung vielfältigster Beschäftigungen, Reflexionen und Entwürfe von Technokultur. Bringt man diese Kopplungen auf das Jahr 3000, die nächste epochale zukünftige Zäsur, wird die Absurdität des Projekts, Technokultur überhaupt zu thematisieren deutlich. Technokultur ist im dynamischen Wandel sozio-ikonografisch untersuchbar, wird aber durch Unschärferelation zum object trouvé und Triebmoment für eine in es selbst hinein assimilierbare Analyse. Der daraus folgenden Vermessenheit kann durch instrumentelle Serendipity begegnet werden, die hier nicht Effekt wäre, stattdessen als Methode Verwendung findet: Finden statt Suchen. Das verhältnismäßig neue Schreib/Lese-Medium Hypertext bietet sich dafür als geradezu prädestiniert an. Hypertext ist prinzipiell unabgeschlossen, er folgt hier Arbeitsprinzipien wie sie seit den frühen 1990ern in Online-Tagebüchern und seit den frühen 2000er Jahren in Weblogs (World Wide Web Logbooks) auszumachen sind: Notizen, Found Text (analog zu Found Footage), Zitate, Fragmente, die kurze Form, kurz: wissenschaftliche Alltagstextproduktion wird nach Ordnungskriterien a-systematisiert und verwoben - weniger archiviert denn gesammelt. Eine Art Second Hand Theorie entsteht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Designing is a heterogeneous, fuzzily defined, floating field of various activities and chunks of ideas and knowledge. Available theories about the foundations of designing as presented in "the basic PARADOX" (Jonas and Meyer-Veden 2004) have evoked the impression of Babylonian confusion. We located the reasons for this "mess" in the "non-fit", which is the problematic relation of theories and subject field. There seems to be a comparable interface problem in theory-building as in designing itself. "Complexity" sounds promising, but turns out to be a problematic and not really helpful concept. I will argue for a more precise application of systemic and evolutionary concepts instead, which - in my view - are able to model the underlying generative structures and processes that produce the visible phenomenon of complexity. It does not make sense to introduce a new fashionable meta-concept and to hope for a panacea before having clarified the more basic and still equally problematic older meta-concepts. This paper will take one step away from "theories of what" towards practice and doing and try to have a closer look at existing process models or "theories of how" to design instead. Doing this from a systemic perspective leads to an evolutionary view of the process, which finally allows to specify more clearly the "knowledge gaps" inherent in the design process. This aspect has to be taken into account as constitutive of any attempt at theory-building in design, which can be characterized as a "practice of not-knowing". I conclude, that comprehensive "unified" theories, or methods, or process models run aground on the identified knowledge gaps, which allow neither reliable models of the present, nor reliable projections into the future. Consolation may be found in performing a shift from the effort of adaptation towards strategies of exaptation, which means the development of stocks of alternatives for coping with unpredictable situations in the future.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador: