580 resultados para Dynamisches Verhalten


Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Jeder Mensch muss lernen wie er oder sie eine Zukunft im Sinne der Nachhaltigen Entwicklung für sich und gemeinsam mit anderen gestalten kann“ (de Haan 2009, S. 9 f.). Auf den Weltkonferenzen in Rio de Janeiro 1992 und Johannesburg 2002 wurde diese Vorgabe für die Politik und schließlich für die Bildung ausgegeben. Die Aufgabe besteht nun darin, Wege zu finden dies zu erreichen und umzusetzen. Bei den damit einhergehenden Überlegungen spielt die Bildung eine immens wichtige Rolle. An diesem Punkt setzt die vorliegende Arbeit an. Im Mittelpunkt steht die Überprüfung der These, dass Bildung, durch die Ermöglichung eines Bewusstseinswandels der Menschen im Bezug auf nachhaltige Entwicklung als eine Antwort auf die mit dem Globalisierungsprozess verbundenen Probleme verstanden werden kann. In diesem Zusammenhang werden Bildungskonzepte, wie die Bildung für nachhaltige Entwicklung , untersucht und es wird der Frage nachgegangen, wie ein Unterricht im Sinne der nachhaltigen Entwicklung gestaltet werden muss.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die fliegerische Tätigkeit auf der Kurzstrecke in der zivilen Luftfahrt unterliegt arbeitsspezifischen Belastungsfaktoren, die sich in wesentlichen Punkten von denen auf der Langstrecke unterscheiden. Eine hohe Arbeitsbelastung auf der Kurzstrecke ist mit vielen Starts und Landungen am Tag verbunden. Neben der Anzahl der Flugabschnitte können auch lange Flugdienstzeiten und/oder unregelmäßige Arbeitszeiten sowie der Zeitdruck während der Einsätze auf der Kurzstrecke zur Belastung für Cockpitbesatzungsmitglieder werden und zu Ermüdungserscheinungen führen. Bisher wurden flugmedizinische und -psychologische Daten hauptsächlich auf der Langstrecke in Bezug auf die Auswirkungen der Jet-Leg Symptomatik und kaum auf der Kurzstrecke erhoben. Deshalb wurde im Rahmen des DLR- Projekts „Untersuchungen zu kumulativen psychischen und physiologischen Effekten des fliegenden Personals auf der Kurzstrecke“ eine Langzeituntersuchung zur Belastung/Beanspruchung, Ermüdung sowie Erholung des Cockpitpersonals auf der Kurzstrecke über jeweils 56 Tage durchgeführt. In Zusammenarbeit mit der Deutschen Lufthansa AG dauerte die Untersuchung zu den Auswirkungen arbeitsspezifischer Belastungsfaktoren auf die Cockpitbesatzungsmitglieder der Boeing 737-Flotte von 2003 bis 2006. ZIEL: Unter Berücksichtigung theoretisch fundierter arbeitspsychologischer Konzepte war das Ziel der Studie, kumulative und akute Effekte auf das Schlaf-Wach-Verhalten, auf die Belastung/Beanspruchung sowie auf die Müdigkeit zu identifizieren, die durch aufeinander folgende Einsätze auf der Kurzstrecke innerhalb eines Zeitraums von acht Wochen auftreten können. Hierfür wurden Daten von 29 Piloten (N=13 Kapitäne; N=16 Erste Offiziere) aufgezeichnet. Das Durchschnittsalter lag bei 33,8 ± 7,9 Jahren (Kapitäne: 42,0 ± 3,8 Jahre; Erste Offiziere: 27,4 ± 2,2 Jahre). METHODEN: Über ein Handheld PC konnten effizient Fragebögen bearbeitet und das Sleep Log sowie das Flight Log geführt werden. Die subjektive Ermüdung und Arbeitsbeanspruchung wurden durch standardisierte Fragebögen (z.B. Ermüdungsskala von Samn & Perelli (1982), NASA-TLX) operationalisiert. Im Sleep Log und im Flight Log wurden das Schlaf-Wach-Verhalten sowie flugspezifische Daten dokumentiert (z.B. Dienstbeginn, Dienstende, Flugabschnitte, Zielorte, etc.). Der Schlaf-Wach-Zyklus wurde mittels der Aktimetrie während des gesamten Messverlaufs aufgezeichnet. Die objektive Leistungsfähigkeit wurde täglich morgens und abends mit Hilfe einer computergestützten Psychomotor Vigilance Task (PVT) nach Dinges & Powell (1985) erfasst. Die Leistung in der PVT diente als Indikator für die Ermüdung eines Piloten. Zusätzliche Befragungen mit Paper-Pencil-Fragebögen sollten Aufschluss über relevante, psychosoziale Randbedingungen geben, die bei den täglichen Erhebungen nicht berücksichtigt wurden (z.B. Arbeitszufriedenheit; Essgewohnheiten; Kollegenbeziehungen). ERGEBNISSE: Unter Beachtung kumulativer Effekte wurde über die Studiendauer keine Veränderung in der Schlafqualität und im Schlafbedürfnis festgestellt. Die Müdigkeit nahm dagegen während der achtwöchigen Untersuchung zu. Die Reaktionszeit in der PVT zeigte an Flugdiensttagen eine Verschlechterung über die Zeit. Insgesamt wurden keine kritischen längerfristigen Effekte analysiert. Akute signifikante Effekte wurden bei der Ermüdung, der Gesamtbelastung und der Leistungsfähigkeit an Flugdiensttagen gefunden. Die Ermüdung als auch die Gesamtbelastung stiegen bei zunehmender Flugdienstdauer und Leganzahl und die Leistung nahm in der PVT ab. Der „time on task“ Effekt zeigte sich besonders in der Ermüdung durch die fliegerische Tätigkeit ab einer Flugdienstzeit von > 10 Stunden und > 4 Legs pro Tag. SCHLUSSFOLGERUNG: Mit diesen Ergebnissen konnte eine wissenschaftliche Datenbasis geschaffen werden aus der Empfehlungen resultieren, wie die Einsatzplanung für das Cockpitpersonal auf der Kurzstrecke unter flugmedizinischen und flugpsychologischen Gesichtspunkten optimiert werden kann. Zudem kann ein sachgerechter Beitrag im Rahmen der Diskussion zur Flugdienst- und Ruhezeitenregelung auf europäischer Ebene geleistet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde untersucht, wie Führung zur Bewältigung von Unternehmenskrisen und Umsetzung von Veränderungen im Kontext des Interim Management beitragen kann. Dazu wurde die Theorie transformationaler Führung um aufgabenbezogene und indirekte Führung und den Einsatz von Positionsmacht ergänzt. Damit wurden diese erfolgskritischen Führungsdimensionen erstmals in einem gemeinsamen theoretischen Rahmen verbunden und die Auswirkungen einer kombinierten Anwendung untersucht. Dieser neue Ansatz wurde als „Total Range of Leadership“ bezeichnet. In der vorliegenden Untersuchung konnten neue Erkenntnisse zum Kontext und den Erfolgsfaktoren des Interim Management sowie zu den Auswirkungen und Wirkungsmechanismen transformationaler Führung und des Total Range of Leadership gewonnen werden. Die Untersuchungsergebnisse deuten darauf hin, dass Interim Management ein hoch effektives Veränderungsinstrument ist. Als erfolgsrelevante Rahmenbedingungen wurden die Ausstattung der Interim Manager mit umfassenden Vollmachten sowie die Unterstützung durch die Auftraggeber, als wichtigster Erfolgsfaktor des Interim Management aber eindeutig die Anwendung transformationaler Führung und des Total Range of Leadership identifiziert. Die Anwendung transformationaler Führung im Rahmen des Total Range of Leadership wirkt sich positiv auf Persönlichkeit, Einstellungen, Kompetenz und Verhalten der Mitarbeiter sowie Organisationsstruktur, Unternehmenskultur, organisationale Lernfähigkeit und finanziellen und marktbezogenen Erfolg von Unternehmens aus. Dabei erzielt transformationale Führung die bei Weitem größte Wirkung aller Führungsdimensionen. Es konnte aufgezeigt werden, dass transformationale Führung diese Wirkung nur in Verbindung mit der kompetenten Anwendung von transaktionaler, aufgabenbezogener und indirekter Führung entfalten kann. Die Untersuchungsergebnisse deuten außerdem darauf hin, dass eine transformationale Führungsbeziehung nur dann entstehen kann, wenn die Mitarbeiter Vertrauen in die professionelle Kompetenz und die Integrität ihrer Führungskraft fassen. Als normative Grundlagen transformationaler Führung wurden die Gewährleistung der Wohlfahrt und des Nutzens der Geführten sowie der Bezug auf und die Berücksichtigung von geteilten und allgemein akzeptierte Werten, insbesondere der distributiven und prozeduralen Gerechtigkeit, identifiziert. Insgesamt deuten die Erkenntnisse der Untersuchung darauf hin, dass mit dem Total Range of Leadership ein ganzheitlicher Führungsansatz entwickelt wurde, der alle aktiven und positiven Führungsverhaltensweisen umfasst, die zur Bewältigung von Krisen und Durchführung von Veränderungen in Unternehmen sowie für effektive Führung überhaupt erforderlich sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Haltung von Milchkühen in einem Laufstall hat sich aus arbeitswirtschaftlichen und Kostengründen stark verbreitet. Im Biolandbau wird diese Entwicklung vor allem aufgrund der höheren Tiergerechtheit dieser Haltungsform forciert. Gleichzeitig werden die allermeisten Kühe für die Laufstallhaltung jedoch enthornt, unter anderem weil sich in den üblichen Ställen mit Normmassen und –konzepten Probleme mit Verletzungen unter den Tieren ergaben. Dabei sprechen die Richtlinien und Verordnungen für biologisch wirtschaftende Betriebe deutlich gegen zootechnische Eingriffe. Das Ziel dieser Arbeit war deshalb, zu prüfen, welche stallbaulichen Voraussetzungen eine Haltung horntragender Kühe im Laufstall gelingen lassen und mit welchen Managementmassnahmen diese optimiert werden kann. Dazu wurde zum einen in einer experimentellen Untersuchung an vier Kuhgruppen im cross-over-Design geprüft, wie sich ein gegenüber der Norm erhöhtes Platzangebot in verschiedenen Stallbereichen (Wartebereich: Crowding vs. unbeengt, Tier:Fressplatz-Verhältnis: 1:1 vs. 1:1,25, Liegefläche: 4,5 vs. 8,0 m2/Kuh, Laufhofffläche: 0 vs. 4,5 vs. 9,0 m2/Kuh) auf das (Sozial-)Verhalten behornter Kühe auswirkt, insbesondere auf das Ausmass an agonistischen Interaktionen und auf die Anzahl der Läsionen am Integument der Kühe. Zum anderen wurde in einer Praxiserhebung in 62 zumindest teilweise behornten Milchviehherden untersucht, welche Beziehungen zwischen dem Auftreten von Verletzungen und den Dimensionen und der Gestaltung der Laufställe sowie dem Herdenmanagement, der Mensch-Tier-Beziehung und den Charakteristika der Herde bestehen. Zudem wurden durch Interviews die in der Praxis vorrangig bestehenden Probleme eruiert und die Erfahrungen der Landwirte zusammengetragen. Im Experiment traten im Wartebereich beim grösseren Platzangebot statistisch auffällig (p=0,068) weniger agonistische Interaktionen unter den Kühen auf, die Zahl der Verletzungen zeigte keinen Unterschied. Im Fressbereich hatte eine Erhöhung der Anzahl Fressplätze keinen Einfluss. Eine grössere Liegefläche/Kuh auf der Tiefstreu hatte jedoch statistisch auffällig weniger agonistische Interaktionen, eine Abnahme der Läsionszahlen sowie längere Liegezeiten und kürzere Stehzeiten (im Stall) pro Tag und damit gleichzeitig eine erhöhte Herdensynchronität zur Folge (p=0,068). Ebenso bewirkte ein erhöhtes Laufhofflächenangebot/Kuh eine geringere Häufigkeit an agonistischen Interaktionen, eine Abnahme der Läsionszahlen sowie erhöhte Aufenthaltsdauern im Laufhof (jeweils p=0,068). In der Praxiserhebung konnten aus 113 Faktoren über Vorselektionen mittels univariaten Analysen (ANOVA) und multivariaten Regressionsanalysen in zwei Modellen multivariate Regressionsanalysen gerechnet werden, um die erklärenden Faktoren für die Variation der Verletzungen durch Hörner zu finden. Modell I (alle Betriebe, ohne Faktoren des Liegebereiches (Liegeboxenfaktoren)) wies einen Erklärungswert R2 von 0,825 und eine Signifikanz von p < 0,001 auf, Modell II (Liegeboxenbetriebe, alle Faktoren) einen Erklärungswert R2 von 0,882 und eine Signifikanz von p < 0,001. Als signifikante erklärende Faktoren für wenige Verletzungen verblieben in diesen Modellen der Stalltyp inkl. der Gliederung der Funktionsbereiche (unverbaut und übersichtlich mit klar getrennten Bereichen), eine hohe Anzahl Viehbürsten, breite Laufflächen, keine Hindernisse im Laufbereich, wenige Mitarbeiter, ein hoher Anteil eigener in die Herde eingegliederter Tiere, wenige Eingliederungen in den letzten sechs Wochen, die Rasse Fleckvieh, keine einzelnen unbehornten Kühe in der Herde und ein geringes Verletzungspotential der Hörner. Aus der Erfahrung der Landwirte ist der Fressbereich der Hauptproblembereich. Aus den Ergebnissen lässt sich schlussfolgernd sagen, dass ein Laufstall mit grosszügiger, deutlich über der Norm liegender Dimensionierung der flächigen Stallbereiche (Wartebereich, Liegefläche und Laufhoffläche/Kuh) für behornte Kühe günstige Haltungsbedingungen bietet. Engstellen hingegen bergen Konfliktpotential. Bei der Stallkonzeption muss eine klare Gliederung der Funktionsbereiche angestrebt werden, wenn Auseinandersetzungen vermieden werden sollen. Ein Tier:Fressplatz-Verhältnis von 1:1 mit ein paar Reserveplätzen scheint ausreichend, allerdings muss auf ein wirklich horngeeignetes Fressgitter mit sicherer Fixierung besonderen Wert gelegt werden. Im Management der Herde muss das Augenmerk vor allem auf das Vorgehen bei der Eingliederung von Tieren in die Herde gelegt werden. Da Eingliederungen das soziale Gefüge der Herde ändern, lassen sich mit möglichst wenig Eingliederungen von möglichst bekannten, also eigenen Tieren Auseinandersetzungen mit Verletzungen vermeiden. Günstig ist zudem, wenn nur eine Person die Herde betreut. Eine nur symptomatische, aber sehr effektive Massnahme zur Verringerung der Verletzungszahlen ist das Senken der Verletzungsgefahr der Hörner durch Entfernen spitzer Hornspitzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit dieser Arbeit wurde die Selbstassemblierung von dia- und paramagnetischen Molekülen sowie Einzelmolekülmagneten auf Goldsubstraten und magnetisch strukturierten Substraten untersucht. Dazu wurden drei verschiedene Klassen an Phthalocyaninderivaten verwendet: Diamagnetische Subphthalocyanine, paramagnetische Phthalocyaninatometalle und Diphthalocyaninatolanthanidkomplexe. Alle synthetisierten Verbindungen sind peripher thioethersubstituiert. Die Alkylketten (a: n-C8H17, b: n-C12H25) vermitteln die Löslichkeit in vielen organischen Solventien und sorgen für eine geordnete Assemblierung auf einer Oberfläche, wobei die Bindung auf Gold hauptsächlich über die Schwefelatome stattfindet. Die aus Lösung abgeschiedenen selbstassemblierten Monolagen wurden mit XPS, NEXAFS-Spektroskopie und ToF-SIMS untersucht. Bei der Selbstassemblierung auf magnetisch strukturierten Substraten stehen die Moleküle unter dem Einfluss magnetischer Streufelder und binden bevorzugt nur in bestimmten Bereichen. Die gebildeten Submonolagen wurden zusätzlich mit X-PEEM untersucht. Die erstmals dargestellten Manganphthalocyanine [MnClPc(SR)8] 1 wurden ausgehend von MnCl2 erhalten. Hier fand bei der Aufarbeitung an Luft eine Oxidation zu Mangan(III) statt; +III ist die stabilste Oxidationsstufe von Mangan in Phthalocyaninen. Der Nachweis des axialen Chloridoliganden erfolgte mit Massenspektrometrie und FIR- sowie Raman-Spektroskopie. SQUID-Messungen haben gezeigt, dass die Komplexe 1 vier ungepaarte Elektronen haben. Bei den Subphthalocyaninen [BClSubpc(SR)6] 2 wurde der axiale Chloridoligand mit dem stäbchenförmigen Phenolderivat 29-H substituiert und die erfolgreiche Ligandensubstitution durch NMR- und IR-Spektroskopie sowie Massenspektrometrie an den Produkten [BSubpc(SR)6(29)] 30 belegt. Der Radikalcharakter der synthetisierten Terbiumkomplexe [Tb{Pc(SR)8}2] 3 wurde spektroskopisch nachgewiesen; SQUID-Messungen ergaben, dass es sich um Einzelmolekülmagnete mit einer Energiebarriere U des Doppelpotentialtopfs von 880 K oder 610 cm-1 bei 3a handelt. Zunächst wurden die SAMs der Komplexverbindungen 1, 2, 30 und 3 auf nicht magnetisch strukturierten Goldsubstraten untersucht. Die Manganphthalocyanine 1 bilden geordnete SAMs mit größtenteils flach liegenden Molekülen, wie die XPS-, NEXAFS- und ToF-SIMS-Analyse zeigte. Die Mehrzahl der Thioether-Einheiten ist auf Gold koordiniert und die Alkylketten zeigen ungeordnet von der Oberfläche weg. Bei der Adsorption findet eine Reduktion zu Mangan(II) statt und der axiale Chloridoligand wird abgespalten. Das beruht auf dem sog. Oberflächen-trans-Effekt. Im vorliegenden Fall übt die Metalloberfläche einen stärkeren trans-Effekt als der axiale Ligand aus, was bisher experimentell noch nicht beobachtet wurde. Die thioethersubstituierten Subphthalocyanine 2 und 30 sowie die Diphthalocyaninatoterbium-Komplexe 3 sind ebenfalls für SAMs geeignet. Ihre Monolagen wurden mit XPS und NEXAFS-Spektroskopie untersucht, und trotz einer gewissen Unordnung in den Filmen liegen die Moleküle jeweils im Wesentlichen flach auf der Goldoberfläche. Vermutlich sind bei diesen Systemen auch die Alkylketten größtenteils parallel zur Oberfläche orientiert. Im Gegensatz zu den Manganphthalocyaninen 1 tritt bei 2b, 30a, 30b und 3b neben der koordinativen Bindung der Schwefelatome auf Gold auch eine für Thioether nicht erwartete kovalente Au–S-Bindung auf, die durch C–S-Bindungsbruch unter Abspaltung der Alkylketten ermöglicht wird. Der Anteil, zu dem dieser Prozess stattfindet, scheint nicht mit der Molekülstruktur zu korrelieren. Selbstassemblierte Submonolagen auf magnetisch strukturierten Substraten wurden mit dem diamagnetischen Subphthalocyanin 2b hergestellt. Der Nachweis der Submonolagen war schwierig und gelang schließlich durch eine Kombination von ToF-SIMS, NEXAFS Imaging und X-PEEM. Die Analyse der ToF-SIMS-Daten zeigte, dass tatsächlich eine Modulation der Verteilung der Moleküle auf einem unterwärts magnetisch strukturierten Substrat eintritt. Mit X-PEEM konnte die magnetische Struktur der ferromagnetischen Schicht des Substrats direkt der Verteilung der adsorbierten Moleküle zugeordnet werden. Die Subphthalocyanine 2b adsorbieren nicht an den Domänengrenzen, sondern vermehrt dazwischen. Auf Substraten mit abwechselnd 6.5 und 3.5 µm breiten magnetischen Domänen binden die Moleküle bevorzugt in den Bereichen geringster magnetischer Streufeldgradienten, also den größeren Domänen. Solche Substrate wurden für die ToF-SIMS- und X-PEEM-Messungen verwendet. Bei größeren magnetischen Strukturen mit ca. 400 µm breiten Domänen, wie sie aufgrund der geringeren Ortsauflösung dieser Methode für NEXAFS Imaging eingesetzt wurden, binden die Moleküle dann in allen Domänen. Die diamagnetischen Moleküle werden nach dieser Interpretation aus dem inhomogenen Magnetfeld über der Probenoberfläche heraus gedrängt und verhalten sich analog makroskopischer Diamagnete. Die eindeutige Detektion der Moleküle auf den magnetisch strukturierten Substraten konnte bisher nur für die diamagnetischen Subphthalocyanine 2b erfolgen. Um die Interpretation ihres Verhaltens bei der Selbstassemblierung in einem inhomogenen Magnetfeld weiter voranzutreiben, wurde das Subphthalocyanin 37b dargestellt, welches ein stabiles organisches TEMPO-Radikal in seinem axialen Liganden enthält. Das paramagnetische Subphthalocyanin 37b sollte auf den magnetisch strukturierten Substraten in Regionen starker magnetischer Streufelder binden und damit das entgegengesetzte Verhalten zu den diamagnetischen Subphthalocyaninen 2b zeigen. Aus Zeitgründen konnte dieser Nachweis im Rahmen dieser Arbeit noch nicht erbracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zuge dieser Arbeit werden die Entstehungszusammenhänge vorhandener und teilweise auch de facto genutzter Nachhaltigkeitspotentiale ausgewählter Gemeinden Nordhessens beleuchtet. Die Gemeinde als bürgernahste staatliche Verwaltungseinheit, welche aktiv auf das Verhalten von Menschen und Unternehmen Einfluss nehmen kann, endet dabei nicht an der verwaltungsrechtlichen und politischen Gemeindegrenze. Aus Gründen der Handhabbarkeit des Promotionsvorhabens beschränkt sich der Autor auf die getrennt voneinander zu betrachtenden Arenen der Ernährung und Energiewirtschaft. Ziel dieses Vergleiches ist es, diejenigen Gemeinden benennen zu können, welche von sich und anderen Gemeinden als Musterschüler angesehen werden und die Gründe zu eruieren, welche Faktoren für diese subjektiv positive Entwicklung entscheidend waren und sind. Umgekehrt gilt es, für Gemeinden mit Nachholbedarf im Bereich nachhaltiger Ernährung und Energiewirtschaft, die hemmenden Faktoren herauszufinden. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen oder etwa eine regional-biologische Schulspeisung einzuführen. Niemand ist für eine Klimaveränderung mit katastrophalen Auswirkungen auf unsere Lebensverhältnisse in der Zukunft. Das Verhalten der entscheidenden Akteure legt es aber nahe, dass eine “derartige Veränderung mit zunehmender Wahrscheinlichkeit eintreten wird. Warum gibt es diese Diskrepanz? Dafür lassen sich zwei wesentliche Gründe anführen: die Unwissenheit über die Zusammenhänge und das Ausmaß der Bedrohung sowie die Gleichgültigkeit oder auch der Mangel an Verantwortung gegenüber der Zukunft.” Zum aktuellen Stand der globalen Nachhaltigkeit ist festzustellen: „Der Weltklimagipfel 2009 in Kopenhagen brachte keine spürbaren Fortschritte in Sachen Nachhaltigkeit, hier wurden im Bezug auf die Klimaerwärmung nur vage Ziele formuliert. Es gab zwar eine Abschlusserklärung, diese wurde aber nicht abgestimmt. Den teilnehmenden Ländern bleibt es somit freigestellt, ob sie den Text annehmen und umsetzen oder eben nicht.“ Aufgrund des besagten partiellen Versagens der nationalen und internationalen Ebene steigt die Verantwortung der kommunalen Ebene, welche sich ansonsten auf die Erfolge der Erstgenannten hätte berufen können. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen, dies gilt auch noch nach dem Klimagipfel in Cancún, der seine Wirksamkeit erst noch beweisen muss.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Mittelpunkt der Arbeit steht die Frage, ob bei psychogenen Störungen Geschwistererfahrungen klinische Relevanz haben und ob die erfahrene Geschwisterposition und –konstellation auch im Erwachsenenalter psychodynamisch wirksam ist. Die Arbeit gliedert sich in drei Teile. Im ersten Teil werden in einem metatheoretischen Vorgehen psychoanalytische Konzepte, psychoanalytische Entwicklungstheorien aus der Objekt- und Selbstpsychologie und empirische Forschungsergebnisse zur Geschwisterbeziehung vorgestellt. Darauf aufbauend werden Annahmen formuliert, welche psychodynamischen Konflikte sich in einer pathologischen Entwicklung als psychische Störungen im Erwachsenenalter manifestieren können.Im zweiten Teil der Arbeit werden acht Einzelfälle psychoanalytischer Behandlungen von erwachsenen Patienten unterschiedlicher Geschwisterpositionen und -konstellationen dargestellt, die die in Teil 1 beschriebenen pathogenen Geschwistereinflüsse illustrieren. In den untersuchten Einzelfällen ist die erfahrene Geschwisterposition der Patienten konfliktbesetzt und psychodynamisch wirksam gewesen. Dabei haben die Erfahrungen mit den primären Objekten die Basis für die pathologische Beziehungsdynamik der Geschwister gebildet. Den dritten extra-klinisch empirischen Teil der Arbeit stellt eine explorative Pilotstudie dar, die ebenfalls das Ziel verfolgt, persistierende Geschwisterkonflikte in ihren langandauernden Effekten zu explorieren. Es handelt sich um eine Dokumentenanalyse von 215 Patientenakten aus einer psychosomatischen Klinik. Aus den Akten werden als Variablen ICD - und OPD - Diagnosen als auch inhaltsanalytisch ermittelte psychodynamische Konflikte herausgefiltert und mit den Variablen Geschwisterposition und –konstellation korreliert. Dabei wird erstens der Frage nachgegangen, ob es in den Akten von psychisch erkrankten Patienten zwischen Einzel- und Geschwisterkindern Unterschiede in Bezug auf die Diagnosen und hinsichtlich der formulierten psychodynamischen Konflikte gibt. Zweitens geht es um eine weitergehende Exploration dieser Variablen in Bezug auf die erfahrene Geschwisterposition bzw. –konstellation. Es zeigt sich, dass die ICD-10 Diagnostik aufgrund ihres deskriptiven Charakters und ihrer psychiatrischen Orientierung wenig brauchbar ist, diesbezügliche Hypothesen zu formulieren. Im Unterschied zur ICD-10 ergibt sich in Bezug auf die OPD-Diagnostik, besonders aber in Hinsicht auf die psychodynamischen Konflikte ein differenzierteres Bild. So sind z.B. Parentifizierung am häufigsten von Einzelkindern und Erstgeborenen benannt worden. Gleichzeitig berichten Patienten, die mit Geschwistern aufgewachsen sind, am stärksten von erlebtem emotionalem Mangel in der Familie. Unter Dominanzkonflikten leiden die Patienten am meisten, die als jüngstes Kind aufgewachsen sind. Bei Patienten mit der jüngsten und mittleren Geschwisterposition ist als weiteres Beispiel auffallend oft Altruismus ermittelt worden. Fazit der Arbeit ist, dass ungelöste Geschwisterkonflikte langandauernde Effekte haben können und dass - im Gegensatz zur Birth-Order-Forschung - die Variable der Geschwisterposition unter Berücksichtigung geschlechtsspezifischer Aspekte als ein intra- und interpsychisches dynamisches Geschehen begriffen werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.