849 resultados para Anwendung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In diesem Beitrag wird eine neue Methode zur Analyse des manuellen Kommissionierprozesses vorgestellt, mit der u. a. die Kommissionierzeitanteile automatisch erfasst werden können. Diese Methode basiert auf einer sensorgestützten Bewegungsklassifikation, wie sie bspw. im Sport oder in der Medizin Anwendung findet. Dabei werden mobile Sensoren genutzt, die fortlaufend Messwerte wie z. B. die Beschleunigung oder die Drehgeschwindigkeit des Kommissionierers aufzeichnen. Auf Basis dieser Daten können Informationen über die ausgeführten Bewegungen und insbesondere über die durchlaufenen Bewegungszustände gewonnen werden. Dieser Ansatz wird im vorliegenden Beitrag auf die Kommissionierung übertragen. Dazu werden zunächst Klassen relevanter Bewegungen identifiziert und anschließend mit Verfahren aus dem maschinellen Lernen verarbeitet. Die Klassifikation erfolgt nach dem Prinzip des überwachten Lernens. Dabei werden durchschnittliche Erkennungsraten von bis zu 78,94 Prozent erzielt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hochfeste Faserseile sind aufgrund ihrer hohen spezifischen Festigkeit prädestiniert für dynamische Anwendungen in der Fördertechnik. Der Kenntnisstand über die Zeitfestigkeit zugehöriger Endverbindungen zur Krafteinleitung ist jedoch unzureichend. Gegenstand der vorgelegten Arbeit ist die Entwicklung einer für die Anwendung von hochfesten Faserseilen geeigneten Prüfvorschrift sowie die vergleichende Untersuchung bekannter Endverbindungen für hochfeste Faserseile im Zugschwellversuch.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden optische Filterarrays für hochqualitative spektroskopische Anwendungen im sichtbaren (VIS) Wellenlängenbereich untersucht. Die optischen Filter, bestehend aus Fabry-Pérot (FP)-Filtern für hochauflösende miniaturisierte optische Nanospektrometer, basieren auf zwei hochreflektierenden dielektrischen Spiegeln und einer zwischenliegenden Resonanzkavität aus Polymer. Jeder Filter erlaubt einem schmalbandigem spektralen Band (in dieser Arbeit Filterlinie genannt) ,abhängig von der Höhe der Resonanzkavität, zu passieren. Die Effizienz eines solchen optischen Filters hängt von der präzisen Herstellung der hochselektiven multispektralen Filterfelder von FP-Filtern mittels kostengünstigen und hochdurchsatz Methoden ab. Die Herstellung der multiplen Spektralfilter über den gesamten sichtbaren Bereich wird durch einen einzelnen Prägeschritt durch die 3D Nanoimprint-Technologie mit sehr hoher vertikaler Auflösung auf einem Substrat erreicht. Der Schlüssel für diese Prozessintegration ist die Herstellung von 3D Nanoimprint-Stempeln mit den gewünschten Feldern von Filterkavitäten. Die spektrale Sensitivität von diesen effizienten optischen Filtern hängt von der Genauigkeit der vertikalen variierenden Kavitäten ab, die durch eine großflächige ‚weiche„ Nanoimprint-Technologie, UV oberflächenkonforme Imprint Lithographie (UV-SCIL), ab. Die Hauptprobleme von UV-basierten SCIL-Prozessen, wie eine nichtuniforme Restschichtdicke und Schrumpfung des Polymers ergeben Grenzen in der potenziellen Anwendung dieser Technologie. Es ist sehr wichtig, dass die Restschichtdicke gering und uniform ist, damit die kritischen Dimensionen des funktionellen 3D Musters während des Plasmaätzens zur Entfernung der Restschichtdicke kontrolliert werden kann. Im Fall des Nanospektrometers variieren die Kavitäten zwischen den benachbarten FP-Filtern vertikal sodass sich das Volumen von jedem einzelnen Filter verändert , was zu einer Höhenänderung der Restschichtdicke unter jedem Filter führt. Das volumetrische Schrumpfen, das durch den Polymerisationsprozess hervorgerufen wird, beeinträchtigt die Größe und Dimension der gestempelten Polymerkavitäten. Das Verhalten des großflächigen UV-SCIL Prozesses wird durch die Verwendung von einem Design mit ausgeglichenen Volumen verbessert und die Prozessbedingungen werden optimiert. Das Stempeldesign mit ausgeglichen Volumen verteilt 64 vertikal variierenden Filterkavitäten in Einheiten von 4 Kavitäten, die ein gemeinsames Durchschnittsvolumen haben. Durch die Benutzung der ausgeglichenen Volumen werden einheitliche Restschichtdicken (110 nm) über alle Filterhöhen erhalten. Die quantitative Analyse der Polymerschrumpfung wird in iii lateraler und vertikaler Richtung der FP-Filter untersucht. Das Schrumpfen in vertikaler Richtung hat den größten Einfluss auf die spektrale Antwort der Filter und wird durch die Änderung der Belichtungszeit von 12% auf 4% reduziert. FP Filter die mittels des Volumengemittelten Stempels und des optimierten Imprintprozesses hergestellt wurden, zeigen eine hohe Qualität der spektralen Antwort mit linearer Abhängigkeit zwischen den Kavitätshöhen und der spektralen Position der zugehörigen Filterlinien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hybrid simulation is a technique that combines experimental and numerical testing and has been used for the last decades in the fields of aerospace, civil and mechanical engineering. During this time, most of the research has focused on developing algorithms and the necessary technology, including but not limited to, error minimisation techniques, phase lag compensation and faster hydraulic cylinders. However, one of the main shortcomings in hybrid simulation that has pre- vented its widespread use is the size of the numerical models and the effect that higher frequencies may have on the stability and accuracy of the simulation. The first chapter in this document provides an overview of the hybrid simulation method and the different hybrid simulation schemes, and the corresponding time integration algorithms, that are more commonly used in this field. The scope of this thesis is presented in more detail in chapter 2: a substructure algorithm, the Substep Force Feedback (Subfeed), is adapted in order to fulfil the necessary requirements in terms of speed. The effects of more complex models on the Subfeed are also studied in detail, and the improvements made are validated experimentally. Chapters 3 and 4 detail the methodologies that have been used in order to accomplish the objectives mentioned in the previous lines, listing the different cases of study and detailing the hardware and software used to experimentally validate them. The third chapter contains a brief introduction to a project, the DFG Subshake, whose data have been used as a starting point for the developments that are shown later in this thesis. The results obtained are presented in chapters 5 and 6, with the first of them focusing on purely numerical simulations while the second of them is more oriented towards a more practical application including experimental real-time hybrid simulation tests with large numerical models. Following the discussion of the developments in this thesis is a list of hardware and software requirements that have to be met in order to apply the methods described in this document, and they can be found in chapter 7. The last chapter, chapter 8, of this thesis focuses on conclusions and achievements extracted from the results, namely: the adaptation of the hybrid simulation algorithm Subfeed to be used in conjunction with large numerical models, the study of the effect of high frequencies on the substructure algorithm and experimental real-time hybrid simulation tests with vibrating subsystems using large numerical models and shake tables. A brief discussion of possible future research activities can be found in the concluding chapter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In diesem Text werden Moderationsmethode und Moderationszyklus erläutert. Die einzelnen Phasen und deren Bausteine werden beschrieben. Durch viele Beispiele soll die Anwendung der Bausteine erleichtert werden. Durch die Anwendungsbeispiele der Bausteine sowie die Erläuterungen zu Moderationsvorbereitung und Moderatorenrolle (Haltung und Fragetechnik) sollen die Lesenden in die Lage versetzt werden, die Moderationsmethode nach der Teilnahme an der Beispielmoderation und deren Reflexion selbst anzuwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Produktion von Astaxanthin mittels Haematococcus pluvialis ist eines der wichtigsten Fachgebiete der Mikroalgen Biotechnologie. Kommerzielles Interesse ist zurückzuführen auf dessen Anwendungen als Pigment in der Tierzucht und neuerdings auch im Bereich des Gesundheitswesens, begründet auf seiner starken anti-oxidativen Wirkung. Allerdings begrenzen die Herausforderungen in der industriellen Produktion von H. pluvialis, in Bezug auf den Metabolismus der Alge wie gleichermaßen auch die Kultivierungsstrategie, immer noch den Markt für natürliches Astaxanthin. Die derzeit gängigen Kultivationstechnologien basieren auf Suspensionssystemen, welche weitgehende Nachteile mit sich führen, wie hoher Wasser-, Energie und Technikaufwand. Diese Probleme können durch die Anwendung einer immobilisierten Kultivation vermieden werden, weshalb diesem Verfahren immer mehr Aufmerksamkeit zu Teil wird. In dieser Arbeit wurde H. pluvialis als immobilisierte Kultur in einem Twin-Layer PSBR verwendet. Insgesamt wurden 26 verschiedene Arten von H. pluvialis gefunden, die als Biofilm wachsen und Astaxanthin produzieren konnten, wobei der Stamm CCAC 0125 zur weiteren Optimierung des Prozesses ausgewählt wurde. Biomasse und Astaxanthin Produktion stiegen zunehmenden in Abhängigkeit zu der Lichtintensität, bis einschließlich 1,015 µmol Photonen m-2 s-1, ohne Anzeichen von Photoinhibition. Maximale Biomasse Produktivität von 19.4 g m-2 d-1 wurde unter starken Lichtverhältnissen verzeichnet. Nährstofflimitierungen und Salinität unterstützen die Astaxanthin Produktion hinderten allerdings das Wachstum der Biomasse. Nichtdestotrotz, wurde die höchste Astaxanthin Produktivität von 0.507 g m-2 d-1 mit einem Biomasseanteil von 3.5% in der Trockenmasse durch starke Belichtung sowie Stickstoff- und Phosphatmangel erreicht. Diese Ergebnisse bestärken die Verwendung der immobilisierten Kultivation von H. pluvialis als Alternative zu den derzeitigen Technologien. Die Verknüpfung von hoher Biomasse mit der Produktion von Astaxanthin bei starkem Lichtintensitäten wurde nur durch die Anordnung in einem Biofilm ermöglicht. Es kann einen Durchbruch in der kommerziellen Herstellung von H. pluvialis darstellen, da hierbei das Vorziehen der Kulturen bei geringen Licht entfällt, was wiederum den derzeit verwendeten komplexen Zwei-Stufen Prozess stark vereinfacht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Archäologie gibt die Untersuchung der räumlichen und zeitlichen Dimensionen von Tausch Hinweise auf die Reichweite und Entwicklung prähistorischer Wirtschaftssysteme und den damit verbundenen sozialen Kontakten. Bei der Erforschung neolithischer Gesellschaften wird Tausch – bedingt durch die archäologische Quellenlage – häufig anhand der Weitergabe lithischen Materials erforscht. In diesem Dissertationsprojekt wird die Weitergabe von Silex (Feuerstein) zwischen mittelneolithischen Siedlungen innerhalb der Kleinregion des heutigen Braunkohletagebaus zwischen Aachen und Köln untersucht. Silex diente als Rohmaterial zur Herstellung von Werkzeugen für die Jagd sowie für eine Vielzahl häuslicher, agrarischer und handwerklicher Tätigkeiten. Die untersuchten Siedlungslätze datieren in die mittelneolithischen Phasen Großgartach, Planig-Friedberg und Rössen (ca. 4900 bis 4550 v. Chr.). Ein zentraler Untersuchungsteil stellt der Vergleich zwischen den Fundplätzen im Hinblick auf die Produktion von Silexgrundformen und -werkzeugen dar. Dabei kommt unter anderem eine Faktorenanalyse zur Anwendung. Das Analyseresultat bildet die Grundlage zum Entwurf dreier Thesen, auf deren Überprüfung die darauffolgenden Untersuchungsschritte ausgelegt sind. Dabei werden die Analysen auf ein siedlungsinternes und ein überregionales Level ausgeweitet. Auf diese Weise konnten nicht nur quellenkritische Aspekte überprüft und Ergebnisse für das zentrale Untersuchungsgebiet verifiziert, sondern auch die weiträumigen Verteilungsmuster der Feuersteinweitergabe erfasst werden. In einer abschließenden interpretativen Betrachtung wurden die Tauschverhältnisse auf den verschiedenen Skalenniveaus anhand eines ethnographischen Modells nach M. Sahlins beschrieben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gesetze müssen verständlich sein, so die Forderung, sie können aber nach der herrschenden Lehre diese Anforderung nicht erfüllen, da ihre Bedeutung nicht in der geforderten Weise bestimmt sein kann, wie die Auslegungstätigkeit in der Anwendung zeigt. Der Aufsatz beschäftigt sich mit der Frage, wie unter diesen Umständen Verständlichkeit bei der Versprachlichung von Gesetzesnormen möglich ist. Voraussetzung für eine Antwort sind präzisierte Vorstellungen über die Prozesse des Verstehens, die Verständlichkeit von Texten und den Zusammenhang zwischen Verstehen, Bedeutung und Auslegung. 1. Die Bedeutung von Texten zeigt sich im Verstehen. Verstehen ist ein konstruktiver, inferenzieller Prozess, in dem anhand des Wortlautes mit Hilfe von prototypischen Annahmen, Sachwissen, Situationswissen und inferenziellen Regeln u. a. ein mentales Modell von Sachverhalten und Bewertungen der Relevanz der Informationen im gegebenen Kontext hergestellt werden. Die sprachliche Bedeutung eines Textes ist selbst kein Abbild eines Sachverhaltes, sondern eine Konstruktionsanweisung, ein solches Abbild in der Form eines mentalen Modells herzustellen. 2. Gesetzesaussagen sind normative generell-abstrakte Aussagen. Generell-abstrakte Aussagen zu verstehen, bedeutet, eine Menge von familienähnlichen mentalen Modellen entsprechend den sprachlichen und sachlichen Vorgaben rekonstruieren zu können. 3. Es gibt nicht ein einziges Verstehen, sondern Abstufungen des Verstehens zwischen relativ vagem und relativ präzisem Verstehen und zwischen punktuellem Verstehen und Erkennen der möglichen Schlussfolgerungen aus einer Aussage. Laienverstehen und professionelles, präzises Verstehen und Begreifen können in Konflikt zueinander stehen, müssen aber nicht, soweit das Laienverstehen in wesentlichen Aspekten kompatibler Teil des professionellen Verstehens ist. 4. Verstehen ist Arbeit mit einem Aufwand. Verständlichkeit entspricht dem Aufwand, der erforderlich ist, um einen Text zu verstehen. Der Aufwand hängt von der Sachkenntnis der Interpretin, von der Abstraktheit und Komplexität der vermittelten Information der Aussage und der sprachlichen Gestaltung ab. 5. Wer einen Inhalt wie eine Gesetzesnorm zu versprachlichen hat, muss vom vorgegebenen Inhalt und den textspezifischen und sachlichen Vorgaben ausgehen und kann diese nur begrenzt beeinflussen. Ein gegebene Information kann vom Inhalt so sachspezifisch und komplex sein, dass sie nicht beliebig leicht (d.h. allgemein-) verständlich formuliert werden kann. Gestaltbar ist dagegen die Textform. Die Aufgabe besteht darin, die Textform so zu gestalten, dass sie allgemeinen pragmatischen und kognitiven Verstehensregeln entspricht und die kognitiven Verstehensprozeduren in der Konstruktion mentaler Modelle unterstützt. Stichwörter sind Transparenz, Ikonizität, Erkennbarkeit der Relevanz der Inhaltselemente, Vermeidung von Konflikten mit der Allgemeinsprache. 6. Der Einwand der Unbestimmtheit (und entsprechend der Unverständlichkeit) von Gesetzestexten betrifft die Aufgabenstellung der Gesetzesredaktion nicht direkt. Das Verstehen eines Gesetzestextes bei seiner Formulierung und die Auslegung sind zwei unterschiedliche Vorgänge in unterschiedlichen Zusammenhängen. Ein Gesetzestext (der Normtext in der Terminologie der Strukturierenden Rechtslehre) setzt eine allgemeine Norm innerhalb eines allgemeinen Erwartungshorizonts. Auch wenn er eine Vielzahl von potenziellen konkreten (fiktiven) Anwendungsfällen als mentalen Modellen zu rekonstruieren erlaubt, sind unter den vorgegebenen Voraussetzungen die Regeln dieser Rekonstruktionen grundsätzlich (bei angemessener Formulierung) bestimmt. Auslegung ist demgegenüber Herstellung einer Rechtsnorm für den konkreten Fall auf der Grundlage von generell-abstrakten Normtexten. Der konkrete Fall ist individuell und hat von seinem Wesen her keinen Zusammenhang mit einer generell-abstrakten Norm. Die individuell-konkrete Rechtsnorm kann durch inferenzielle Ableitung einer Einzelnorm aus dem generellen Normtext hergeleitet und begründet werden; dies entspricht dem Resultat von gewöhnlichen Verstehensprozeduren, ist aber ebenfalls eine inferenziell gesteuerte Konstruktion einer neuen Norm. In vielen Fällen ist die Rechtsnorm aber das Resultat von Inferenzen aus einer Vielzahl von Normtexten und sonstigen Inputdaten wie Relevanzkriterien und nicht eine direkte Konkretisierung einer einzelnen bestimmten generell-abstrakten Norm. Die vielzitierte Unbestimmtheit von Normtexten in der Anwendung ist nicht Reflex der Unbestimmtheit der Bedeutung eines generell-abstrakten Normtextes als solchen, sondern der vielfältigen Vermitteltheit einer konkreten Rechtsnorm aus je nach Situation unterschiedlichen Vorgaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nukleinsäuren sind viel versprechende Moleküle um genetisch bedingte Erkrankungen zu behandeln. Die unzureichende Serumstabilität und die schlechte Zellaufnahme aufgrund des hohen Molekulargewichts, der negativen Ladung und des hydrophilen Charakters der Nukleinsäure, erschweren jedoch die klinischen Anwendungen. Des Weiteren müssen bevor die Nukleinsäuren einem Patienten verabreicht werden können, geeignete in vitro-Systeme entwickelt werden, um die Auswirkungen der Nukleinsäure auf die Zellen zu untersuchen. Daher wurden zahlreiche virale als auch nicht-virale Transportsysteme entwickelt, um den Transport der therapeutischen Nukleinsäuren in die Zellen zu erleichtern. Da jedoch die Anwendung von viralen Vektoren mit vielen Nachteilen verbunden ist, werden nicht-virale Transportsysteme mit einem guten Wirkungsgrad und einer geringen Toxizität dringend benötigt. In den letzten Jahren sind sogenannte zellpenetrierende Peptide (cell penetrating peptides, CPP) als effektive, nicht-virale Vektoren für den Nukleinsäure-Transfer in den Fokus der Forschung getreten. Sie sind in der Lage, Moleküle in das Zellinnere zu transportieren, welche aufgrund ihrer Ladung, Größe und Hydrophilie normalerweise nicht die Zellmembran passieren können. Ziel dieser Arbeit war die Etablierung von geeigneten in vitro-Systemen sowie die Entwicklung von neuen peptid-basierten Transportmolekülen, die über eine nicht-kovalente Verbindung in der Lage sind, die Nukleinsäuren in die Zellen zu transportieren. Hierfür wurden verschiedene CPPs im Hinblick auf ihre Transportfähigkeit für Forschungsbereiche untersucht, die noch geeignete Transporter benötigen. Die untersuchten CPPs wurden sowohl von dem humanen Calcitonin (hCT) als auch von dem kationischen antimikrobiellen Peptid CAP18 (sC18) abgeleitet. Die in dieser Arbeit untersuchten CPPs waren in der Lage, Nukleinsäuren erfolgreich in verschiedene Zelllinien (MCF-7, HEK-293 und hTERT RPE-1) zu transportierten, ohne dabei die Vitalität der Zellen zu beeinflussen. Des Weiteren konnte für das CPP N-E5L-hCT(18-32)-k7 eine bemerkenswert hohe Transfektions-Effizienz erzielt werden, nachdem nicht-differenzierte hTERT RPE-1 Zellen damit transfiziert wurden. Die Effizienz überschritt sogar die von Lipofectamin, welches als positiv Kontrolle verwendet wurde. CPP N-E5L-hCT(18-32)-k7 war zudem in der Lage in einzellige Protisten (Choanoflagellate) zu internalisieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Beispiel des Verhältnisses von Pädagogik und Psychologie wird auf Probleme in der Beziehung der Pädagogik zu ihren Nachbardisziplinen eingegangen. Von Seiten der Psychologie bildet die Pädagogische Psychologie das Verbindungsstück. Da sie im wesentlichen als Anwendung psychologischer Methoden auf Probleme der pädagogischen Praxis entstanden war, blieben ihre Erfolge in pädagogischer Hinsicht bescheiden. Die Krise, in die sie geriet, rief nach einer stärkeren Orientierung an pädagogischer Theorie. Das Spannungsfeld zwischen Pädagogik und Psychologie, das sich dadurch eröffnete, wurde jedoch nie ausgeräumt. Statt dessen wurde von Seiten der Pädagogik eine Menschenkunde entwickelt, die antiwissenschaftlich auftrat und als Psychologieersatz diente. Pädagogik und Psychologie konnten auf diese Weise nicht wirklich zusammenfinden. Ein wesentlicher Grund für dieses Manko wird in einem beiderseits naiven, phänomenalistischen Gegenstandsverständnis gesehen. Als Lösung wird vorgeschlagen, das Verhältnis von Pädagogik und Psychologie auf eine konstruktivistische Basis zu stellen. Dadurch ließe sich die Pädagogische Psychologie als interdisziplinäre Wissenschaft begründen, was eine fruchtbare Dynamik zwischen den beiden Disziplinen ermöglichen würde. (DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Thema dieser Arbeit ist die Interferenzuntersuchung im Sprachenpaar Deutsch–Finnisch und das Thema wird anhand der Theorie der grammatischen Komplexität betrachtet. In dieser Arbeit findet die Theorie mit ihren zentralen Elementen der Komplexität des Finnischen in studentischen und maschinellen Übersetzungen eines von der Autorin ausgesuchten Textes ihre Anwendung. Der Fokus liegt jedoch in studentischen Übersetzungen. Anhand der Ergebnisse wird versucht herauszufinden, ob beim Übersetzen eines komplexeren Ausgangstextes mehr Interferenz vorkommt als bei einem einfacheren Text. Dazu gibt es zwei von ihrem Komplexitätsgrad unterschiedliche Versionen desselben Ausgangstextes. Eine weitere Zuteilung wird aufgrund der Studienphase (Grund- bzw. Fachstudium) gemacht. In der Untersuchung wird angenommen, dass Interferenz sich messen lässt. Jedoch wird die quantitative Analyse durch eine qualitative Betrachtung erweitert. Anhand der Ergebnisse wird auch versucht, einen ersten Rahmen zum Modell zum Messen von Interferenz zu skizzieren. Neben den zentralen Elementen der Komplexität wären dabei die numerische Stellung des Verbes, Anzahl an geketteten Nomina sowie Modi miteinzubeziehen. Die quantitative Annäherung könnte mit qualitativer Betrachtung bzw. Expertenverfahren ergänzt werden. Aus den somit analysierten maschinell übersetzten Texten könnte der mit dem geringsten Interferenzgrad ausgesucht werden. Die quantitative Analyse ergab, dass in beiden Textversionen die wesentlichsten Faktoren der Komplexität die Wortanzahl und die Satzlänge waren, wobei die letztere auch statistisch bestätigt wurde. Zwischen den Studentengruppen waren auch die Satzlänge sowie die Anzahl an Ableitungen von Bedeutung. Die maschinell übersetzten Texte haben andere Eigenschaften erwiesen als die studentischen, und diese Unterschiede waren kleiner als erwartet. Laut qualitativer Betrachtung waren die meisten Vorkommnisse der Interferenz auf syntagmatisch-syntaktischem Niveau, d.h. in der Wort- und Satzstellung, wie auch erwartet wurde. Aufgrund der Ergebnisse lässt sich nicht verallgemeinern, ob sich die Hypothese von mehr Interferenz mit wachsender Komplexität im Ausgangstext sich bestätigen lässt, was auf den geringen Umfang des Korpuses (n=10) zurückzuführen ist. Das schließt jedoch nicht eine weitere Betrachtung mit einem größeren Korpus aus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Einsatz von Fallstudien kann als wichtiges Bindeglied zur Verknüpfung von Theorie und Praxis betrachtet werden. Fallstudien ermöglichen die Anwendung theoretischen Grundlagenwissens und die Entwicklung überfachlicher Kompetenzen. Damit können sie einen wichtigen Beitrag zur beruflichen Handlungskompetenz genau dort leisten, wo praktische Erfahrungen im Rahmen der Aus-und Weiterbildung nicht möglich sind. Der Einsatz von Fallstudien sollte aus diesem Grund nicht nur den „klassischen“ Anwendungsdisziplinen wie den Rechtswissenschaften, der Betriebswirtschaftslehre oder der Psychologie vorbehalten sein. Auch im Bereich der Informatik können sie eine wichtige Ergänzung zu den bisher eingesetzten Methoden darstellen. Das im Kontext des Projekts New Economy1 entwickelte und hier vorgestellte Konzept zur didaktischen und technischen Aufbereitung von Fallstudien am Beispiel der IT-Aus- und Weiterbildung soll diese Diskussion anregen. Mit Hilfe des vorgestellten Ansatzes ist es möglich, unterschiedliche methodische Zugänge zu einer Fallstudie für eine computerbasierte Präsentation automatisch zu generieren und mit fachlichen Inhalten zu verknüpfen. Damit ist ein entscheidender Mehrwert gegenüber den bisherigen statischen und in sich geschlossenen Darstellungen gegeben. Der damit zu erreichende Qualitätssprung im Einsatz von Fallstudien in der universitären und betrieblichen Aus- und Weiterbildung stellt einen wichtigen Beitrag zur praxisorientierten Gestaltung von Blended Learning-Ansätzen dar.(DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Methodenlehre-Baukasten1 ist ein interaktives Lehrprogramm für Methodenlehre und Statistik, das versucht, mithilfe didaktischer Interventionen die Problematik des Phänomens „Statistikangst“, das unter Studierenden der Geistes- und Sozialwissenschaften identifiziert wurde, entgegenzuwirken. Auf dem Konzept des Entdeckenden Lernens basierend, bietet das Lernprogramm den Studierenden die Möglichkeit, anhand realer Forschungsdaten und fachspezifischer Zugänge zu aktuellen wissenschaftlichen Fragestellungen, ihr Verständnis der Statistik und Methodenlehre ausgehend von ihren naiven Konzepten in kleinen kognitiven Schritten hin zu einem wissenschaftlichen Verständnis zu erweitern. Der vorliegende Beitrag stellt zunächst kurz die Struktur des Lernprogramms dar, um im Folgenden auf die didaktischen Konzepte einzugehen, mit denen diesen motivationalen Problemen begegnet wird. Das Beispiel einer Übung konkretisiert die Anwendung des didaktischen Konzepts im Methodenlehre-Baukasten.(DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einleitung: Zu den autistischen Syndromen werden der frühkindliche Autismus (Kanner-Syndrom), das Asperger-Syndrom und atypische Autismusformen oder nicht-spezifizierte tiefgreifende Entwicklungsstörungen gezählt. Bei den autistischen Syndromen liegen Beeinträchtigungen (1) der Kommunikation und (2) der sozialen Interaktion vor. Weiterhin weisen (3) die Kinder in unterschiedlichem Maß stereotypes, repetitives Verhalten auf und haben bestimmte Sonderinteressen. Verhaltensbasierte Frühinterventionen bei Kindern mit Autismus basieren auf lerntheoretischen und verhaltenstherapeutischen Konzepten. Sie berücksichtigen die besonderen vorliegenden Beeinträchtigungen in der Wahrnehmung, der emotionalen Reaktionen, der sozialen Interaktionen sowie der Kommunikationsmuster. Die systematische Anwendung und Evaluation solcher Modelle in Deutschland ist aber bisher eher die Ausnahme. Fragestellungen: - Wie sind die gesundheitliche Effektivität und Sicherheit von verhaltens- oder fertigkeitenbasierten Frühinterventionen bei autistischen Syndromen untereinander und verglichen mit einer Standardbehandlung? - Gibt es Hinweise auf besondere Wirkfaktoren für die Effektivität? - Wie ist die Kosten-Effektivität? - Wie hoch sind die Kosten der verschiedenen Interventionen? - Lassen sich aus ethischen und rechtlichen Überlegungen Schlüsse für die Anwendung der betrachteten Interventionen bei Betroffenen mit autistischem Syndrom in der Praxis ziehen? Methoden: Basierend auf einer systematischen Literaturrecherche werden ab 2000 in deutscher oder englischer Sprache veröffentlichte kontrollierte Studien zu verhaltens- oder fertigkeitenbasierten Frühinterventionen bei Kindern mit Autismus im Alter von bis zu zwölf Jahren eingeschlossen und bewertet. Die Mindestzahl an Studienteilnehmern muss zehn pro Interventionsgruppe betragen. Ergebnisse: Insgesamt 15 Veröffentlichungen klinischer Primärstudien, acht systematische Reviews und eine ökonomische Veröffentlichung erfüllen die Einschlusskriterien. Die meisten Studien evaluieren intensive Frühinterventionen, die sich an das Modell von Lovaas (Early intensive behavioural treatment (EIBT), Applied behavioural analysis (ABA)) anlehnen. Einige Studien evaluieren andere Interventionen, die teilweise pragmatisch waren und teilweise einem bestimmten Modell folgen (spezifisches Elterntraining, Responsive education and prelinguistic milieu teaching (RPMT), Joint attention (JA) und symbolisches Spielen (SP), Picture exchange communication system (PECS)). Verhaltensanalytische Interventionen basierend auf dem Lovaas-Modell können weiterhin als die am besten empirisch abgesicherten Frühinterventionen angesehen werden. Vorschulkinder mit Autismus können durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen (expressive Sprache, Sprachverständnis und Kommunikation) erreichen. Es bleibt jedoch unklar, welche Mindestintensität notwendig ist, und welche Wirkkomponenten für die Ergebnisse verantwortlich sind. Für andere umfassende Frühinterventionen bei Kindern mit Autismus liegt keine hochwertige Evidenz vor. Die für den ökonomischen Teilbereich identifizierte und einbezogene Publikation ist methodisch und thematisch nicht dazu geeignet, die Fragen nach der Kosten-Effektivität oder den Kostenwirkungen von Frühinterventionen beim Autismus auch nur ansatzweise zu beantworten. Publikationen zu rechtlichen, ethischen oder sozialen Aspekten werden nicht identifiziert. Die finanzielle Lage der Betroffenen und der Familien wird durch das Pflege-Weiterentwicklungsgesetz (Pf-WG) verbessert. Weitere rechtliche Belange betreffen die Betreuung und die Deliktfähigkeit der Menschen mit Autismus. Auch die gleichheitliche Betreuung und Versorgung sind insbesondere vor dem Hintergrund der Pflege im häuslichen Umfeld eine wichtige Frage. Diskussion: Es gibt nur wenige methodisch angemessene Studien zur Beurteilung der Wirksamkeit von Frühinterventionen bei Kindern mit Autismus. Die meisten Studien sind vergleichsweise kurz und haben teilsweise kein verblindetes Ergebnis-Rating. Der Mangel an hochwertigen vergleichenden Studien lässt keine solide Antwort auf die Frage zu, welche Frühintervention bei welchen Kindern mit Autismus am wirksamsten ist. Programme nach dem Lovaas-Modell scheinen am wirkungsvollsten zu sein. Dies gilt vor allem, wenn sie klinikbasiert durchgeführt werden. Zu einzelnen Wirkfaktoren von Frühinterventionen nach dem ABA-Modell konnte allerdings keine solide Evidenz gefunden werden. Es zeigte sich, dass ein Elterntraining hinsichtlich der Verbesserung der Kommunikation besser ist als eine Routinebehandlung, in der eine Mischung von Theapieelementen angewendet wird. Sowohl für die klinischen als auch die gesundheitsökonomischen Studien besteht das Problem unzureichender Verallgemeinerbarkeit der Studienergebnisse in den deutschen Versorgungskontext. Die ökonomischen Studien sind methodisch und thematisch nicht dazu geeignet die aufgeworfenen Fragestellungen zu beantworten. Schlussfolgerung: Basierend auf der derzeitigen Studienlage liegt für keine der untersuchten verhaltensbasierten Frühinterventionen bei Kindern mit Autismus ausreichende Evidenz vor. Die in diesem Bericht ausgewerteten Studien und Reviews legen nahe, dass Vorschulkinder mit Autismus durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen erreichen können. Es gibt bisher keine Hinweise, dass bei einem substantiellen Anteil der Kinder eine vollständige Normalisierung der Entwicklung erreicht werden kann. Die meiste Evidenz liegt für die ABA vor. Ein Minimum an erforderlicher oder sinnvoller Behandlungsintensität kann jedoch nicht angegeben werden. Eine professionelle Umsetzung eines verhaltensbasierten Frühinterventionsprogrammes in engem und ausführlichem Kontakt mit den Kindern und unter Einbeziehung der Eltern erscheint sinnvoll. Zur Kosten-Effektivität von intensiven Frühinterventionen bei Kindern mit Autismus können keine validen Angaben gemacht werden. Effektive Frühinterventionen könnten jedoch die Gesamtkosten des Autismus langfristig reduzieren, indem die anfallenden hohen Aufwendungen durch eine spätere bessere soziale Anpassung überkompensiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Konstruktivistischen Positionen wird des Öfteren eine unüberwindbare Befangenheit in der Subjektperspektive vorgeworfen. Es sei aus dieser Perspektive nicht möglich, so heißt es, die Bedeutung des Sozialen und der Umwelt für den Menschen angemessen zu berücksichtigen oder gar zu erklären, und so müssten etwa Fragen der Macht und Kontrolle notwendig ausgeblendet werden. Diesen Vorwürfen soll hier ein Machtansatz entgegengestellt werden, der auf einem erkenntnistheoretischen Konstruktivismus basiert. Im Rahmen dieses Beitrags wird das Phänomen „Macht“ aus dieser Perspektive erörtert und im Unterschied zu den gerade im radikalkonstruktivistischen „Machtdiskurs“ üblichen „Entweder-oder-Positionen“ (entweder gibt es Macht oder eben nicht) eine „Sowohl-als-auch-Position“ vorgestellt werden. Den Nutzen der Differenzierung in „instruktive Macht“ vs. „destruktive Macht“ verdeutlicht der Beitrag exemplarisch durch die Anwendung auf die Frage nach den Möglichkeiten von Hilfe und Kontrolle in der Sozialen Arbeit. (DIPF/Orig.)