986 resultados para räumliche Entwicklung
Resumo:
Hintergrund: Seit Mitte der 1990er Jahre findet ein Stellenabbau in Krankenhäusern statt, von dem insbesondere auch der Pflegedienst betroffen ist. Obwohl die Tatsache seit längerem bekannt ist, fehlt es noch an einer gründlichen Analyse und Aufbereitung der verfügbaren Daten, um sich ein fundiertes Bild über den Umfang, die Entwicklung, Ursachen und Auswirkungen machen zu können. Methoden: Primäre Datengrundlage sind die Daten der Krankenhausstatistik sowie der Gesundheitsausgabenrechnung des Statistisches Bundesamtes. Ergebnisse: Die Analyse führt zu dem Ergebnis, dass zwischen 1995 und 2005 insgesamt ca. 104.000 Vollzeitstellen für nicht-ärztliches Personal in Allgemeinkrankenhäusern abgebaut wurden. Der ärztliche Dienst wurde hingegen um ca. 19.000 Vollkräfte ausgebaut. Im Saldo ergibt dies einen Gesamtstellenabbau von ca. 85.000 Vollkräften. Der größte Teil des Stellenabbaus entfiel mit ca. 44.000 Vollzeitstellen auf den Pflegedienst. Im Jahr 2005 lag die Zahl der Vollkräfte im Pflegedienst der Allgemeinkrankenhäuser um 13,7 % unter dem Wert des Jahres 1995 und sogar noch unter dem Wert des Jahres 1991, als über einen Pflegenotstand in Krankenhäusern gesellschaftlich diskutiert wurde. Eine Analyse der Kostendaten der Allgemeinkrankenhäuser zeigt, dass der Stellenabbau im Pflegedienst nicht allein durch die Budgetdeckelung und Einführung des DRG-Systems erklärt werden kann. Mehr als die Hälfte des Stellenabbaus wäre auf Grund der allgemeinen Budgetentwicklung nicht erforderlich gewesen, sondern erfolgte offenbar, um im Rahmen einer internen Umverteilung Mittel für andere Zwecke freizusetzen. Gewinner der internen Umverteilung war der ärztliche Dienst. Vor dem Hintergrund der Ergebnisse zahlreicher internationaler Studien muss davon ausgegangen werden, dass der Stellenabbau bereits negative Auswirkungen auf die Qualität der Patientenversorgung hat. Die Ergebnisse internationaler Forschung zu diesem Thema weisen darauf hin, dass eine niedrigere Personalbesetzung in Pflegedienst das Risiko erhöht, als Patient im Krankenhaus eine schwerwiegende Komplikation zu erleiden oder sogar zu versterben. Schlussfolgerungen: Es besteht dringender Handlungsbedarf, da sich die Personalbesetzung des Pflegedienstes in Allgemeinkrankenhäusern seit mehr als 10 Jahren in einer Abwärtsspirale befindet und mit weiterem Stellenabbau zu rechnen ist.
Resumo:
Die Zeit liegt noch nicht lange zurück, da es insbesondere im Bereich des unternehmensbezogenen Managements einfach dazugehörte, „im Stress“ zu sein. Häufig wurde es als Zeichen für Wichtigkeit und Unentbehrlichkeit gedeutet. Bemerkenswert ist, dass sich diese Einstellung zur Stressthematik in der einschlägigen wirtschaftsbezogenen Öffentlichkeit grundlegend geändert hat. Heutzutage – so heißt es dort – handeln Führungskräfte verantwortungsvoll, wenn Stresssymptome ernst genommen werden, weil man davon ausgeht, dass erholte Mitarbeiter auf allen Ebenen der Hierarchie weniger Fehler machen, seltener krank sind und produktiver arbeiten. Vor diesem Hintergrund wird empfohlen, der Balance zwischen An- und Entspannung durch beispielsweise meditative Entspannungstechniken mehr Aufmerksamkeit zu schenken und auch der im Menschen stattfindenden Kommunikation, der sog. inneren Kommunikation, größere Beachtung zu schenken, denn der Stress beginnt im Kopf. Im folgenden Beitrag wird die eben skizzierte Einstellungsänderung aufgegriffen, um auf dieser Grundlage die Relevanz der Entwicklung von Spiritualität im Sinne einer religionsunabhängigen Erfahrung zum Zwecke der Stressbewältigung herauszuarbeiten.
Resumo:
Über die vergangenen Jahrzehnte hat sich die Interne Unternehmenskommunikation stets auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und ihre Modelle zur Motivation und Integration von Mitarbeitern den Veränderungen im strategischen und operativen Management angepasst. Ging es in den 70er und 80er Jahren dabei noch um das Herstellen von Mitarbeiterzufriedenheit, drehte sich seit den 90er Jahren in der Folge des zunehmenden globalen Wettbewerbs dann alles um das Mitarbeiterengagement.
Dieser Beitrag unternimmt einen Versuch, die Geschichte der Internen Unternehmens-kommunikation in Deutschland zu beleuchten. Dazu wird der Blickwinkel des Kommunikationsmanagements eingenommen, welches die Funktion der generellen Unternehmenskommunikation und damit auch die ihrer Teildisziplin für die Anspruchsgruppe der Mitarbeiter unter betriebswirt-schaftlichen Gesichtspunkten betrachtet und in den Wertschöpfungsprozess eines Unternehmens einordnet.
Es wird gezeigt, dass und wie sich die Interne Unternehmenskommunikation über die vergangenen Jahrzehnte auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und diese unterstützt hat. Die jeweiligen Lösungsansätze der Internen Kommunikation dienten immer dazu, die Mitarbeiter zum Vorteil der Unternehmensführung in das Unternehmensgeschehen zu integrieren.
Und so, wie sich im Laufe der Zeit das strategische und operative Management veränderte, entwickelte sich auch die hier zu beschreibende Disziplin weiter.
Unterdessen ist der Wandel Normalität geworden, doch mehr als jeder dritte Veränderungsprozess kann auch heute noch vor allem durch eine mangelnde Integration der Mitarbeiter als nicht erfolgreich betrachtet werden. Aber mehr denn je ist die kreative Beteiligung der Betroffenen und die Übernahme von Eigenverant-wortung notwendig. Entsprechende Maßnahmen der Internen Unternehmenskommunikation müssen nun aus einem Modell für Mobilisierung erwachsen.
Inzwischen stellen diese Zusammenhänge die Verantwortlichen für die Interne Kommunikation vor große Herausforderungen und erfordern ein hohes Maß an Professionalität, die aber in der Praxis noch längst nicht überall Einzug gehalten hat. So gibt dieser Beitrag auch einen Ausblick auf die aktuell zu erkennenden Unterstützungspotenziale der Internen Unternehmenskommunikation im Wertschöpfungsprozess.
Resumo:
Entstanden im Rahmen des Forschungsschwerpunkts "Entwicklung von Spiritualität in der Wirtschaft".
Resumo:
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation. Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche. In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen. Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Resumo:
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Resumo:
Idee zum Projektantrag der TIB Hannover und Hochschule Hannover in der DFG-Ausschreibung: „Open-Access-Transformation“ vom 2.6.2014 im Bereich „Wissenschaftliche Literaturversorgungs- und Informationssysteme“ (LIS), eingereicht am 30.10.2014
Resumo:
[s.c.]
Resumo:
UANL
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
Seit gut zehn Jahren erlebt die Windenergienutzung in Deutschland einen in der Mitte der 80er Jahre nicht für möglich gehaltenen Aufschwung. Anlagenanzahl und installierte Leistung haben in diesem Zeitraum mit durchschnittlichen jährlichen Wachstumsraten von mehr als 30 Prozent zugenommen, die mittlere installierte Leistung pro neu errichteter Anlage stieg dabei um das Zehnfache und die technische Verfügbarkeit der Anlagen liegt mittlerweile bei über 98 Prozent. Mit größer werdenden Anlagen zeigt sich weiterhin ein klarer Trend zu Blattwinkel verstellbaren Konzepten, mit zunehmend drehzahlvariabler Betriebsweise. Vor dem von Vielen für die kommenden drei bis sechs Jahre prognostizierten Einstieg in die großtechnische Offshore- Windenergienutzung mit den damit verbundenen immensen technologischen und strukturellen Herausforderungen erscheint es sinnvoll, einen kritischen Blick zurückzuwerfen auf die 90er Jahre mit den ihnen zugrunde liegenden förderpolitischen Rahmenbedingungen. Dabei soll die Frage beantwortet werden, welchen konkreten Einfluss die staatlichen Forschungs- und Förderprogramme, besonders das "250 MW Wind"-Programm, auf die Entwicklung der Windenergienutzung hatten, das heißt, unter welchen Bedingungen sich bestimmte Techniklinien durchsetzten, wie der Einfluss eines geschützten Marktes durch gesetzlich garantierte Einspeisetarife auf diese Entwicklung zu bewerten ist und schließlich, welche Fehlentwicklungen möglicher Weise eingetreten sind. Dazu wird mit Hilfe von Lernkurven gezeigt, welche Kostenreduktionen insgesamt erzielt wurden, wie hoch die dazu notwendigen staatlichen Finanzmittel waren und welche Schlussfolgerungen daraus für die Zukunft abgeleitet werden können. Die Arbeit soll insgesamt dazu beitragen, die erreichten technischen Entwicklungsschritte vor dem Hintergrund der förderpolitischen Gegebenheiten besser zu verstehen, Chancen für gezielte Änderungen in der Förderpraxis zu ergreifen und Hinweise auf die Ausgestaltung von zukünftigen Forschungsprogrammen und Entwicklungsschwerpunkten im Bereich der Windenergie zu geben, um weitere Kostensenkungspotenziale auszuschöpfen. Dabei wird sich die zukünftige Schwerpunktsetzung in der programmatischen Ausrichtung der Forschung stärker auf die drei wichtigsten Anwendungsfelder für Windenergieanlagen konzentrieren müssen, die großtechnische Offshore- Anwendung, die netzgebundene, dezentrale Energieversorgung sowie auf Windenergieanlagen zur ländlichen Elektrifizierung in autonomen Versorgungssystemen für Schwellen- und Entwicklungsländer.
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.