134 resultados para Implementierung


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hintergrund: Im Rahmen des neuen nationalen Medizinalberufegesetzes [http://www.admin.ch/ch/d/as/2007/4031.pdf], [http://www.bag.admin.ch/themen/berufe/07918/07919/index.html], der Entwicklung hin zu Kompetenz-basierten Curricula [1] und der Einführung der Bologna-Reform in den medizinischen Studiengängen [2] wurde in der Schweiz eine neue eidgenössische Schlussprüfung Humanmedizin unter Aufsicht des Bundes und in Zusammenarbeit mit den medizinischen Fakultäten in zwei Sprachen (D/F) entwickelt und 2011 erstmals durchgeführt. Projektbeschreibung: Im vorliegenden Beitrag werden die Rahmenbedingungen für die Implementierung aufgezeigt und die Entwicklung der Gesamtprüfung als Pass/Fail-Prüfung einschliesslich ihrer 2 Einzelprüfungen beschrieben. Die 1. Einzelprüfung besteht aus einer schriftlichen Prüfung (MCQ) an 2 Prüfungstagen zu je 4.5 h mit je 150 interdisziplinären, taxonomisch auf Anwendungswissen ausgerichteten Fragen. Die 2. Einzelprüfung umfasst eine strukturierte, klinisch-praktische CS-Prüfung (OSCE) mit insgesamt 12 Rotationsposten über je 13 min Dauer und je 2 min Rotationszeit zwischen den Posten. Zur Qualitätssicherung wurden zahlreiche Massnahmen ergriffen wie z.B. die Schulung der standardisierten Patienten anhand zentraler Standardisierungsvorlagen. Der Gesamtblueprint ist abgestimmt auf den Schweizer Lernzielkatalog Humanmedizin [http://sclo.smifk.ch] und beinhaltet die 2 Hauptdimensionen „General Objectives/CanMed Roles“ und „Problems as Starting Points“. Ergebnisse: Die Prüfung wurde an allen 5 Standorten 2011 und 2012 erfolgreich durchgeführt. Die Prüfungsresultate der ersten 2 Kohorten differenziert nach Gesamtprüfung und Einzelprüfungen zeigen in etwa die erwarteten Werte hinsichtlich der Bestehensquote. Die Metadaten zur Prüfungsqualität zeigen für beide Jahre, dass die angestrebte Messzuverlässigkeit der Prüfung mit einem Cronbach Alpha als Mass für die Reliabilität von im Mittel α=0.9 für die MCQ Einzelprüfung und von im Mittel α>0.8 für die CS-Einzelprüfung erreicht wurde. Diskussion und Schlussfolgerungen: Basierend auf den Erfahrungen und Daten der ersten 2 Prüfungskohorten kann gesagt werden, dass die Implementierung einer neuen nationalen Prüfung, die neben der neu ausgerichteten MCQ-Einzelprüfung erstmals mit einem strukturierten, objektivierbaren und national standardisierten Instrument klinische Fähigkeiten und Fertigkeiten misst, grundsätzlich gelungen ist. In diesem Kontext muss die Relevanz der intensiven Koordination und Abstimmung von der Gesetzgebung und den Verordnungsvorgaben bis hin zum Lernzielkatalog und dem korrespondierenden Gesamtblueprint der Prüfung hervorgehoben werden. Bezüglich der zukünftigen Entwicklung werden Aspekte der Qualitätssicherung und der Weiterentwicklung der Gesamtprüfung auch im Sinne von ergänzenden Prüfungsformaten diskutiert werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fragestellung/Einleitung: Die Eidgenössische Prüfung Humanmedizin (EP) wurde zwischenzeitlich dreimal erfolgreich durchgeführt. Daten zu Stärken, Schwächen und dem Weiterentwicklungsbedarf lagen bisher nur spärlich vor. Deshalb sollten diese anhand einer qualitativen Studie unter den involvierten Experten und bildungspolitischen Entscheidungsträgern erhoben werden. Methoden: Vier Fokus-Gruppen mit insgesamt 25 Teilnehmern wurden entsprechend internationaler Standards durchgeführt, um die Einschätzungen involvierter Experten und bildungspolitischer Entscheidungsträger bzgl. den erfahrenen Stärken, Einflüssen und dem Weiterentwicklungsbedarf der EP zu erhalten. Die Fokusgruppendiskussionen wurden wörtlich transkribiert und anhand von Inhaltsanalyse ausgewertet. Ergebnisse: Erfahrene Stärken waren v.a. die Kombination der beiden Prüfungs-Teile „Multiple Choice“ (MC) und „Clinical Skills“ (CS), die formatspezifischen Stärken der MC- und CS-Prüfung und die kollaborative Herangehensweise. Erfahrene Einflüsse der EP waren v.a. auf das studentische Lernverhalten, die Prüfer, den Lehrkörper, die Reform der Curricula, die Zusammenarbeit der Fakultäten und die erfahrene Wichtigkeit des Schweizer Lernzielkatalogs (SCLO). Bedarf zur Weiterentwicklung wurde v.a. in Folgendem gesehen: Dass Modifikationen nur angegangen werden, wenn diese wohlüberlegt und evidenzbasiert sind, in einer verbesserten Authentizität der CS-Prüfung, in weiteren Examensformaten, in einer verbesserten Kommunikationsstrategie, in der weiteren Revision des SCLO, in der Anerkennung der Limitationen eines „Single Shot Examens“ und im Aufbau einer Incentives-Struktur für die Kliniker, die aktiv die EP mitgestalten. Diskussion/Schlussfolgerung: Insgesamt wird die EP als geeignet für ihre Aufgaben angesehen. Diese Prüfung hat Einflüsse auf die Medizinstudierendenausbildung in der Schweiz auch über die direkten summativen Prüfungsaspekte hinaus. Es wurde ein Bedarf zur Weiterentwicklung gesehen, jedoch sollten die Veränderungen wohl begründet sein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neurokognitive Spätfolgen nach pädiatrischem Hirntumor spielen bei der immer grösser werdenden Anzahl von Überlebenden eine wichtige Rolle. Im Bereich der schulischen Fertigkeiten zeigen sich vor allem Defizite in der Lesekompetenz. Die Hauptziele der vorliegenden Studien bestanden darin, Hirnfunktionsstörungen bei einer ausgewählten Gruppe von Kindern und Jugendlichen (Hirntumorpatienten) zum Zeitpunkt der Diagnose zu erfassen, sowie Wissen über alters- und intelligenzunabhängige Einflussmöglichkeiten auf die kognitive Leistung am Beispiel des Lesens bereitzustellen. Insgesamt flossen Daten von rund 180 Kindern und Jugendlichen in die jeweiligen Analysen ein, wobei sowohl ein klinisches Sample (Kinder und Jugendliche mit Krebserkrankungen) als auch Kinder aus unterschiedlichen Altersgruppen und in zwei verschiedenen Schulmodellen (Primarschule und Heilpädagogische Schule) berücksichtigt wurden. Zusammenfassend kann gesagt werden, dass Krebserkrankungen, welche das zentrale Nervensystem betreffen, schon zum Zeitpunkt der Diagnose Auswirkungen auf basale neurokognitive Fähigkeiten haben. Diese Defizite können zu einer Verzögerung der neurokognitiven Entwicklung beitragen. Daher müssen möglichst früh pädagogische und/oder therapeutische Massnahmen eingeleitet werden, welche in den Patienten- und Schulalltag implementiert werden können. Das hier vorgestellte neu entwickelte Wort-Bild-Training, das in einem ersten Schritt bei normalbegabten und geistig behinderten Kindern verschiedener Altersstufen positive Effekte auf die Verbesserung der Lesefertigkeit und des Leseverständnisses gezeigt hat, könnte ebenfalls eine wertvolle Fördermöglichkeit für Kinder mit Hirnfunktionsstörungen aufgrund onkologischer Erkrankungen darstellen. Obwohl die erreichte Verbesserung der Lesekompetenz eher klein ausfiel, wiesen die Effekte zumindest über kurze Zeit eine gewisse Stabilität auf. Dieser Befund spricht für die Möglichkeit der Einflussnahme auf die Leseprozesse durch das (auf implizitem statistischen Lernen basierende) Training, widerspiegelt gleichzeitig aber auch deren Grenzen. Das gewonnene Wissen wird in Bezug auf die Relevanz für die klinische und pädagogische Praxis diskutiert. Ausgehend von den eigenen Studienergebnissen wird schliesslich angeregt, impliziten Lernstrategien in den Lehrplänen einen höheren Stellenwert einzuräumen und mit der Förderung von einfachen Lesestrategien bei pädiatrischen Hirntumorpatienten möglichst frühzeitig zu beginnen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

„Entwicklung und Implementierung von Modellen für ein Skills-Training-Parcours für internistische Assistenzärzte “ V. Maier1 - K. Schnabel2 1 Universitätslinik für Allgemeine Innere Medizin, Inselspital, Bern 2 Berner interdisziplinäres Skills- und Schauspielpatientenzentrum (BiSS), Institut für Medizinische Lehre (IML), Abteilung für Unterricht und Medien (AUM) Einleitung: Im klinischen Alltag sind praktische Fertigkeiten gefordert, um Patienten sicher zu behandeln. Auch in der Schweizer Fachgesellschaft FMH kam es zu einer stärkeren Gewichtung der praktischen Fertigkeiten und müssen jetzt ein Logbuch über Art und Zeitpunkt der Intervention führen [1]. Am Inselspital Bern wurde dafür ein Skillsparcours etabliert, da in vielen Bereichen simulationsbasierte Ausbildungen traditionellen Methoden überlegen ist [2]. Der Skillsparcours besteht aus einem Nachmittag mit 4 nicht-invasiven Prozeduren und einem Nachmittag mit 5 invasiven Prozeduren. Eigens dafür wurden drei Modelle entwickelt und deren Tauglichkeit evaluiert. Fragestellung: Bilden die selbst gefertigten Modelle die Realität ausreichend ab? Material und Methoden: Innerhalb der 9 Posten (5 invasiv und 4 nichtinvasiv) wurden für die 5 invasiven Posten zwei Modelle aus dem Skillslab (BiSS) genutzt (Lumbalpunktion (LP) und Blasenkatheter (BK)) und drei Modelle neu entwickelt (Pleura-(PP), Aszites-(AP) und Knochenmarks-Punktion (KMP)). Die Modelle wurden mit Materialien aus dem Baumarkt entwickelt (Material ca. CHF 50/Stück). Der Aufbau der Modelle soll auf der Tagung demonstriert werden. Die Teilnehmer (N=12) und Dozenten (N=5) wurden zu der Qualität mittels Fragebogen befragt. Dabei wurde die individuelle Vorerfahrung und die Einschätzung der Teilnehmer erfragt. Die Frage zur Eignung des Modells war: „Das Modell war zum Üben geeignet“. Als Skala wurde eine Likert-Skala von 0 bis 5 (1=sehr ungeeignet, 5=sehr geeignet) benutzt. Ergebnisse: Die Assistenzärzte beurteilten die Modelleignung wie folgt (Median (Min;Max)): LP: 5 (4;5) KMP: 4.5 (3;5), PP: 4 (3;5), AP: 4.5 (2;5), BK-Einlage: 4.5 (4;6). Die Oberärzte, die jeweils nur das Modell bewerteten, an welchem sie den Kurs durchführten, beurteilten die Modelleignung wie folgt: LP 5.0, KMP: 5.0, PP 5.0, AP: 4.0, BK-Einlage: 3.0. Diskussion: Alle Modelle wurden sowohl von den Oberärzten als auch von den Assistenzärzten als zum Üben tauglich eingeschätzt. Zwischen den selbst hergestellten Low-Fidelity Modellen und den High-Fidelity Modellen gab es hierein keinen signifikanten Unterschied. Als am wenigsten tauglich wurde von den Oberärzten mit der Simulation der Blasenkatheter-Einlage ein High-Fidelity-Modell bewertet. Schlussfolgerungen: Alle Modelle für die Simulation der Punktionstechniken haben gut bis sehr gut funktioniert. Die selbst hergestellten Modelle bilden die Wirklich zum Üben der Techniken hinreichend gut und nicht schlechter als die High-Fidelity-Modelle ab. Selbst gebaute Modelle mit Materialien aus dem Baumarkt können das sonst sehr materialaufwändige Training mit Simulatoren genauso effektiv aber wesentlich effizienter durchführbar machen. Literatur bei den Autoren (1) Weiterbildungsordnung FMH 2014 (letzte Revision 4. September 2014). www.fmh.ch/files/pdf15/wbo_d.pdf (2) McGaghie WC, Issenberg SB, Cohen ER, Barsuk JH, Wayne DB (2011) Does simulation-based medical education with deliberate practice yield better results than traditional clinical education? A meta-analytic comparative review of the evidence. Acad Med. 2011 Jun;86(6):706-11

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Prozess für den frühen aerothermodynamischen Entwurf von Axialturbinen konzipiert und durch Kopplung einzelner Computerprogramme im DLR Göttingen realisiert. Speziell für die Erstauslegung von Geometrien und die Vorhersage von globalen Leistungsdaten beliebiger Axialturbinen wurde ein neues Programm erzeugt. Dessen effiziente Anwendung wird mit einer zu diesem Zweck konzipierten grafischen Entwurfsumgebung ausgeführt. Kennzeichnend für den Vorentwurfsprozess in dieser Arbeit ist die Anwendung von ein- und zweidimensionaler Strömungssimulation sowie der hohe Grad an Verknüpfung der verwendeten Programme sowohl auf prozesstechnischer wie auch auf datentechnischer Ebene. Dabei soll dem sehr frühen Entwurf eine deutlich stärkere Rolle zukommen als bisher üblich und im Gegenzug die Entwurfszeit mit höher auflösenden Vorentwurfsprogrammen reduziert werden. Die Anwendung der einzelnen Programme im Rahmen von Subprozessen wird anhand von exemplarischen Turbinenkonfigurationen in der Arbeit ebenso dargestellt, wie die Validierung des gesamten Entwurfsprozesses anhand der Auslegung einer folgend realisierten und erfolgreich operierenden Axialturbine eines Triebwerkssimulators für Flugzeug-Windkanalmodelle (TPS). Neben der Erleichterung von manueller Entwurfstätigkeit durch grafische Benutzerinteraktion kommt in einzelnen Subprozessen eine automatisierte Mehrziel-Optimierung zum Einsatz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgangspunkt für die vorliegende Arbeit ist die These, dass Informationsberatung in Anlehnung an die in den USA verbreiteten Research Consultations eine ergänzende Methode zur prozessorientierten Förderung von Informationskompetenz an wissenschaftlichen Bibliotheken sein kann. Im Zuge der Diskussion dieser These werden zunächst die der Dienstleistung zugrunde liegenden Konzepte wie etwa das Rollenverständnis des consultant librarian und das des counseling librarian vorgestellt. Daraufhin wird die in der Fachliteratur geführte Diskussion um die Einordnung der Dienstleistung aufgegriffen und Informationsberatung gegenüber den herkömmlichen Dienstleistungen Auskunftsdienst und Informationskompetenzschulung abgegrenzt. Dabei zeigt sich, dass professionelle bibliothekarische Beratung im Zuge der Förderung des informellen Lernens einen neuen, eigenständigen und nutzerorientierten Service darstellt, der den aktuellen Bedarf nach individueller Betreuung durch persönliche Ansprechpartner und Expertenberatung deckt. Durch die inhaltliche und zeitliche Flexibilität der Dienstleistung können Nutzer am point of need abgeholt werden. Umsetzungsmodelle finden sich bspw. an der Wissensbar der SLUB Dresden, dem Helpdesk Lern- und Arbeitstechniken an der KIT-Bibliothek und dem Learning Center der Universitätsbibliothek Mannheim. Seitens der Berater werden u.a. Kompetenzen im Bereich des wissenschaftlichen Arbeitens sowie Kommunikations- und Sozialkompetenzen benötigt. Neben der Qualifizierung des bibliothekseigenen Personals durch Fortbildungen stellen Kooperationen mit kompetenzbildenden Einrichtungen der Universität eine Möglichkeit zur Implementierung der Dienstleistung dar, die von entsprechenden Marketingmaßnahmen begleitet sein muss. Abschließend wird die Rolle von wissenschaftlichen Bibliotheken im Hinblick auf die an deutschen Universitäten zunehmend etablierten Schreibzentren diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Bachelorarbeit beschäftigt sich mit der Ontologie des Forschungsinformationssystems VIVO. In der Arbeit wird der Versuch unternommen, die Ontologie an die Besonderheiten des deutschen Wissenschaftsbetriebs anzupassen, mit dem Ziel, die Einführung des Systems für eine deutsche Einrichtung zu erleichtern. Das Mapping und die Erweiterung sind auf die Bereiche „Positionsbezeichnungen“ und „Organisationseinheiten“ beschränkt. Der theoretische Teil behandelt das Thema der Forschungsinformationen und deren Implementierung in ein Forschungsinformationssystem. Unter anderem werden auch die Tendenzen der Standardisierung in dem Bereich beleuchtet. Bei der Darstellung von VIVO als eine Semantic-Web-Anwendung steht die Ontologie, als Grundlage für die Funktionalitäten des Systems im Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde ein räumlich bewegter pneumatischer Mehrachsenprüfstand als spezielle mechanische Variante eines Parallelroboters entwickelt, im Labor aufgebaut und in Rechnersimulationen sowie in Laborexperimenten regelungstechnisch untersucht. Für diesen speziellen Parallelroboter MAP-RTS-6 wurden Regelalgorithmen, die mittels moderner Verfahren der linearen und nichtlinearen Regelungstheorie abgeleitet wurden, hinsichtlich ihrer praktischen Anwendbarkeit, Echtzeitfähigkeit und Qualität entwickelt, implementiert und überprüft. Mit diesen Regelalgorithmen ist der MAP-RTS-6 in der Lage, große räumliche Transienten schnell und präzise nachzufahren. Der MAP-RTS-6 wird in erster Linie als räumlicher Bewegungsmanipulator für große nichtlineare Transienten (Translationen und Rotationen), als räumlicher Vibrationsprüfstand für starre und flexible Prüfkörper unterschiedlicher Konfigurationen und als Mechanismus für die Implementierung und experimentelle Überprüfung unterschiedlicher Regelungs- und Identifikationsalgorithmen und Sicherheitskonzepte verwendet. Die Voraussetzung zum Betrieb des Mehrachsenprüfstands für unterschiedliche redundante Antriebskonfigurationen mit sieben und acht Antrieben MAP-RTS-7 und MAP-RTS-8 wurde in dieser Arbeit geschaffen. Dazu zählen die konstruktive Vorbereitung der Prüfstandsmechanik und Pneumatik zum Anschluss weiterer Antriebe, die Vorbereitung zusätzlicher I/O-Schnittstellen zur Prüfstandselektronik und zum Regelungssystem und die Ableitung von Algorithmen zur analytischen Arbeitsraumüberwachung für redundante Antriebskonfigurationen mit sieben und acht Antrieben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In rural areas of the Mekong Countries, the problem of electricity supplying rural communities is particularly alarming. Supplying power to these areas requires facilities that are not economically viable. However, government programs are under way to provide this product that is vital to community well being. A nation priority of Mekong Countries is to provide electrical power to people in rural areas, within normal budgetary constraints. Electricity must be introduced into rural areas in such a way that maximize the technical, economic and social benefit. Another consideration is the source of electrical generation and the effects on the natural environment. The main research purpose is to implement field tests, monitoring and evaluation of the PV-Diesel Hybrid System (PVHS) at the Energy Park of School of Renewable Energy Technology (SERT) in order to test the PVSH working under the meteorological conditions of the Mekong Countries and to develop a software simulation called RES, which studies the technical and economic performance of rural electrification options. This software must be easy to use and understand for the energy planner on rural electrification projects, to evaluate the technical and economic performance of the PVHS based on the renewable energy potential for rural electrification of the Mekong Country by using RES. Finally, this project aims to give guidance for the possible use of PVHS application in this region, particularly in regard to its technical and economic sustainability. PVHS should be promoted according to the principles of proper design and adequate follow up with maintenance, so that the number of satisfied users will be achieved. PVHS is not the only possible technology for rural electrification, but for the Mekong Countries it is one of the most proper choices. Other renewable energy options such as wind, biomass and hydro power need to be studied in future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unternehmensumwelt wird zunehmend von dynamischen Veränderungen und Turbulenzen geprägt. Globalisierung der Märkte und schneller wechselnde Umfeldveränderungen zwingen die Unternehmen dazu, ihr strategisches Verhalten ständig an neue Bedingungen anzupassen. Ein vorausschauendes Denken und Handeln wird immer notwendiger, da in vielen Branchen Produkte und Dienstleistungen in wesentlich kürzeren Zeitabständen als bisher durch Neue ersetzt werden. Um das unternehmerische Umfeld im Blick zu haben und über Pläne, Leistungen und Kompetenzen der Konkurrenten und Kunden über Marktveränderungen und technische Neuerungen etc. aktuell und vorausschauend informiert zu sein, wird ein intelligentes, systematisches Vorgehen bei der Informationsversorgung mit Umfeldinformationen benötigt. Die Dissertation befasst sich mit der Entwicklung, Implementierung und Untersuchung eines Softwareinstrumentes und systematischen Arbeitsprozesses, um die Versorgung von Managern und Mitarbeitern mit Umfeldinformationen (externen Informationen) zu verbessern um aufkommende Chancen und/oder Risiken frühzeitig zu erkennen. Der Schwerpunkt der Arbeit bezieht sich hauptsächlich auf die Phase der Informationsbereitstellung (Beschaffung, Verarbeitung und Präsentation) und dem Abruf der Umfeldinformationen durch die Manager und Mitarbeiter. Das entwickelte Softwareinstrument und die Arbeitsabläufe werden in drei Untersuchungsfirmen implementiert und evaluiert. Über eine schriftliche Befragung soll der Zustand vor Einführung des Softwareinstrumentes und Arbeitsabläufen und ein Jahr danach erfasst werden. Zur Ergänzung der Ergebnisse der schriftlichen Erhebung werden zusätzlich leitfadengestützte Einzelinterviews durchgeführt werden. Spezielle Auswertungen der Systemzugriffe sollen Aufschluss über den Nutzungsumfang und -häufigkeit im Zeitablauf geben. Über eine sukzessive Optimierung der Software und Arbeitsabläufe werden abschließend ein überarbeitetes Softwareinstrument sowie angepasste Arbeitsabläufe und ein Einführungsverfahren vorgestellt.