162 resultados para echtzeitnahe Steuerung
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Am Beispiel eines umfangreichen Reformprojekts, nämlich der Qualifizierungsmaßnahme "Führungskräfte als Personalentwickler", wurde die Problematik von Veränderungsprozessen in der Großorganisation Polizei dargestellt. Die zweijährige Qualifizierungsmaßnahme hatte als direktes Ziel, Führungskräfte der niedersächsischen Landespolizei zu Personalentwicklern zu qualifizieren. Auf diesem Wege sollte im Sinne eines Multiplikatoreffekts das indirekt anvisierte Ziel, die Umstellung der Organisation der Polizei von einer hierarchisch-bürokratisch geführten zu einer kooperativen mitarbeiter-orientierten Organisation vorangetrieben werden. Untersucht wurden in dieser Arbeit die Auswirkungen der Qualifizierungsmaßnahme auf die Organisation Polizei Niedersachsen und die beteiligten Führungskräfte. Die wesentlichen Befunde der drei zentralen Untersuchungsebenen, 1. Lernteil: die Wirkungen der Inhalte der Seminarbausteine auf die Teilnehmer, 2. Praxisteil: die Einführung von personalentwicklerischen Innovationen in die Arbeitsbereiche der Teilnehmer durch Projektarbeit, 3. Organisationsteil: die Implementation innovativer Personalentwicklung in die Gesamtorganisation, belegen, dass die Polizei ein komplexer Organismus ist, der nur begrenzt linearen Steuerungsmechanismen gehorcht. Die reibungsvolle Gleichzeitigkeit von Alt und Neu schafft Konflikte und Widerstände. Reformprozesse konfrontieren die Alltagsorganisation Polizei in besonderem Maße mit widersprüchlichen Handlungslogiken, was in der Reaktion dazu führt, die Widersprüche weitestgehend zu vermeiden oder zurückzuweisen. Da diese auftretenden Widersprüche nicht reflektiert und damit nicht thematisiert werden, kommt es nicht zu weiter führenden Aushandlungsprozessen auf der Ebene der Gesamtorganisation. So bleibt als Ergebnis festzuhalten: Der individuelle Lernwert der an der Qualifizierungsmaßnahme beteiligten Führungskräfte kann durchgängig als "hoch" bezeichnet werden. Das intendierte Ziel eines breit angelegten Strategiewandels durch Personalentwicklung wurde dagegen verfehlt, da es an begleitenden Unterstützungs- und Entwicklungsmaßnahmen in der Organisation mangelte. Somit stützt und belegt diese Dissertation das Verständnis von prozessualen Dynamiken, die das Geschehen in der Organisation und damit auch das Schicksal von Veränderungsprozessen bestimmen. Reformprozesse sind niemals allein mit der mechanistischen Gestaltung von Organisationszielen, also der Durchführung von Programmen, sondern sowohl mit der Dynamik interner Machtprozesse als auch mit der Art und Weise des Umgangs mit widersprüchlichen Handlungslogiken konfrontiert. Werden letztere nicht zur Kenntnis genommen und bearbeitet bzw. mit traditionellen Lösungsstrategien angegangen, dann bleiben Innovationen suboptimal – wie dies in der untersuchten Maßnahme der Fall ist.
Resumo:
Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.
Resumo:
Infolge der durch die internationalen Schulvergleichstests eingeleiteten empirischen Wende in der Erziehungswissenschaft hat sich die Aufmerksamkeit vom Input schulischen Lehrens und Lernens zunehmend auf die Ergebnisse (Output) bzw. Wirkungen (Outcomes) verlagert. Die Kernfrage lautet nun: Was kommt am Ende in der Schule bzw. im Unterricht eigentlich heraus? Grundlegende Voraussetzung ergebnisorienterter Steuerung schulischen Unterrichts ist die Formulierung von Bildungsstandards. Wie Bildungsstandards mit Kompetenzmodellen und konkreten Aufgabenstellungen im Unterricht des Faches "Politik & Wirtschaft" verknüpft werden können, wird in diesem Beitrag einer genaueren Analyse unterzogen. Vor dem Hintergrund bildungstheoretischer Vorstellungen im Anschluss an Immanuel Kant kommen dabei das Literacy-Konzept der Pisa-Studie sowie die "Dokumentarische Methode" nach Karl Mannheim zur Anwendung.
Resumo:
Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.
Resumo:
Die Stadt-Umland-Problematik ist kein neues oder für die Metropolregion Hamburg spezifisches Thema, sondern eine der klassischen, bundesweiten raumordnungspolitischen Fragestellungen. Unter den Vorzeichen der aktuellen und künftigen demografischen Entwicklung, einer globalen Standortkonkurrenz und immer engerer öffentlicher Finanzspielräume geht es allerdings heute weniger um die Steuerung eines quantitativen Flächenwachstums, sondern vielmehr um die offensive und qualitative Entwicklung und Einbindung aller regionalen Potenziale. Klassische Planungsinstrumente stoßen dabei zunehmend an ihre Grenzen. In dieser Publikation werden die Möglichkeiten neuartiger Formen kooperativer Strukturen umfassend aufgezeigt. Dies geschieht sowohl in einer Gegenüberstellung bisher bekannter Ansätze von stadt-regionalen Kooperationen wie auch, unter besonderer Berücksichtigung des ländergrenzenübergreifenden Aspektes, anhand der Metropolregion Hamburg. Diese wird auf die siedlungsstrukturelle, regionalplanerische sowie politische Ausgangssituationen eingehend untersucht sowie die daraus resultierenden Stärken und Schwächen aufgezeigt und bewertet. Aufbauend auf diese Untersuchung wird für die Metropolregion Hamburg ein möglicher Ansatz stadtregionaler Kooperation, das Modell der Nachbarschaftsforen, vorgestellt, die möglichen Handlungsfelder sowie -konflikte benannt und auf einen spezifischen Teilraum der Region angewendet.
Resumo:
Die langfristige Sicherung bestehender (profitabler) Kundenbeziehungen erweist sich für Unternehmen zunehmend als eine wichtige und zugleich immer schwieriger zu bewältigende Herausforderung. Vor dem Hintergrund hoher Kosten für die Neukundengewinnung und sinkender Kundenloyalität auf gesättigten, wettbewerbsintensiven und transparenten Märkten – verbunden mit tendenziell steigenden Abwanderungsraten – rücken die Früherkennung und Prävention von Kundenabwanderungen sowie die Kundenrückgewinnung verstärkt in den Fokus. Der Aufwand für derartige Anstrengungen muss in einem sinnvollen Verhältnis zum Ertrag stehen. Letztlich wird also für den Komplex „Kundenabwanderung“ ein ergebnisgesteuertes Gesamtsystem der Früherkennung, Prävention und Rückgewinnung benötigt. An dieser Stelle setzt das Customer Recovery Controlling an. Auf Basis des kontributionsorientierten Controllingansatzes wird ein ganzheitliches Controllingsystem für das Customer Recovery Management entwickelt. Dabei werden die führungsunterstützenden Controllingprinzipien der Entscheidungsfundierung, -reflexion und Koordinationsentlastung einschließlich zentraler Controllinginstrumente in den Gesamtzusammenhang des Customer Recovery Managementprozesses gestellt. Es wird aufgezeigt, dass mit einem professionellen Customer Recovery Controlling große Nutzenpotenziale verbunden sind, die sich auf der Customer Recovery Managementebene (z.B. verbesserte Entscheidungsqualität, höhere Präventions- bzw. Rückgewinnungsraten) wie auch auf der Ebene der Gesamtunternehmung (z.B. Sicherung bzw. Erhöhung des Kundenstammwertes) auswirken. Die Erfolgsmodellierung zählt zu den wesentlichen Aufgaben des Controlling. Diesbezüglich bedarf es eines mehrdimensionalen Controllinginstruments, das neben Ergebnisindikatoren auch Leistungstreiber berücksichtigt: die Customer Recovery Scorecard. Ihre Perspektiven – Finanz-, Kunden-, Prozess-, Potenzial- und Wettbewerbsperspektive – sichern eine ganzheitliche Betrachtung der strategisch relevanten Erfolgsfaktoren und darüber hinaus gewährleisten die Kennzahlen eine systematische Planung, Steuerung und Kontrolle des Customer Recovery Management Erfolgs. Für die Erfolgsgrößen werden kausale Abhängigkeiten in Form von Ursache-Wirkungs-Beziehungen innerhalb und zwischen den Perspektiven erfasst (Strategy Maps), wodurch gewissermaßen eine Modellierung der Wertschöpfungskette im Customer Recovery Management erfolgt. Unsere durchgeführte Studie zum Status Quo des Customer Recovery Controlling in der deutschen (groß-)unternehmerischen Dienstleistungspraxis hat gezeigt, dass der präventive Umgang mit Kundenabwanderung zukünftig an Bedeutung gewinnen wird. Obwohl die Mehrheit der befragten Unternehmen über ein organisatorisch verankertes Controlling verfügt, sind bezüglich des allgemeinen Controllingentwicklungsstandes inkl. des Instrumenteneinsatzes Defizite zu konstatieren. In Bezug auf Letzteres hat sich herausgestellt, dass rein ökonomische Aspekte eine dominante Stellung einnehmen; Finanzkennzahlen werden gegenüber den Markt-, Prozess und Potenzialkennzahlen zum einen häufiger eingesetzt und zum anderen auch in ihrer Bedeutung höher eingeschätzt. Darüber hinaus ist der Einsatz von Kennzahlensystemen im Customer Recovery Management noch nicht weit verbreitet und auch hier ist ein finanzwirtschaftlicher Fokus festzustellen. Der Erfolg von Customer Recovery Maßnahmen wird zu einem großen Ausmaß durch die Nutzung des Synergiepotenzials von Customer Recovery Management (Führung vom Markt bzw. Kunden her) und Controlling (Führung vom Erfolg her) determiniert.
Resumo:
To increase the organic matter (OM) content in the soil is one main goal in arable soil management. The adoption of tillage systems with reduced tillage depth and/or frequency (reduced tillage) or of no-tillage was found to increase the concentration of soil OM compared to conventional tillage (CT; ploughing to 20-30 cm). However, the underlying processes are not yet clear and are discussed contradictorily. So far, few investigations were conducted on tillage systems with a shallow tillage depth (minimum tillage = MT; maximum tillage depth of 10 cm). A better understanding of the interactions between MT implementation and changes in OM transformation in soils is essential in order to evaluate the possible contribution of MT to a sustainable management of arable soils. The objectives of the present thesis were (i) to compare OM concentrations, microbial biomass, water-stable aggregates, and particulate OM (POM) between CT and MT soils, (ii) to estimate the temporal variability of water-stable aggregate size classes occurring in the field and the dynamics of macroaggregate (>250 µm) formation and disruption under controlled conditions, (iii) to investigate whether a lower disruption or a higher formation rate accounts for a higher occurrence of macroaggregates under MT compared to CT, (iv) to determine which fraction is the major agent for storing the surplus of OM found under MT compared to CT, and (v) to observe the early OM transformation after residue incorporation in different tillage systems simulated. Two experimental sites (Garte-Süd and Hohes Feld) near Göttingen, Germany, were investigated. Soil type of both sites was a Haplic Luvisol. Since about 40 years, both sites receive MT by a rotary harrow (to 5-8 cm depth) and CT by a plough (to 25 cm depth). Surface soils (0-5 cm) and subsoils (10-20 cm) of two sampling dates (after fallow and directly after tillage) were investigated for concentrations of organic C (Corg) and total N (N), different water-stable aggregate size classes, different density fractions (for the sampling date after fallow only), microbial biomass, and for biochemically stabilized Corg and N (by acid hydrolysis; for the sampling date after tillage only). In addition, two laboratory incubations were performed under controlled conditions: Firstly, MT and CT soils were incubated (28 days at 22°C) as bulk soil and with destroyed macroaggregates in order to estimate the importance of macroaggregates for the physical protection of the very labile OM against mineralization. Secondly, in a microcosm experiment simulating MT and CT systems with soil <250 µm and with 15N and 13C labelled maize straw incorporated to different depths, the mineralization, the formation of new macroaggregates, and the partitioning of the recently added C and N were followed (28 days at 15°C). Forty years of MT regime led to higher concentrations of microbial biomass and of Corg and N compared to CT, especially in the surface soil. After fallow and directly after tillage, a higher proportion of water-stable macroaggregates rich in OM was found in the MT (36% and 66%, respectively) than in the CT (19% and 47%, respectively) surface soils of both sites (data shown are of the site Garte-Süd only). The subsoils followed the same trend. For the sampling date after fallow, no differences in the POM fractions were found but there was more OM associated to the mineral fraction detected in the MT soils. A large temporal variability was observed for the abundance of macroaggregates. In the field and in the microcosm simulations, macroaggregates were found to have a higher formation rate after the incorporation of residues under MT than under CT. Thus, the lower occurrence of macroaggregates in CT soils cannot be attributed to a higher disruption but to a lower formation rate. A higher rate of macroaggregate formation in MT soils may be due to (i) the higher concentrated input of residues in the surface soil and/or (ii) a higher abundance of fungal biomass in contrast to CT soils. Overall, as a location of storage of the surplus of OM detected under MT compared to CT, water-stable macroaggregates were found to play a key role. In the incubation experiment, macroaggregates were not found to protect the very labile OM against mineralization. Anyway, the surplus of OM detected after tillage in the MT soil was biochemically degradable. MT simulations in the microcosm experiment showed a lower specific respiration and a less efficient translocation of recently added residues than the CT simulations. Differences in the early processes of OM translocation between CT and MT simulations were attributed to a higher residue to soil ratio and to a higher proportion of fungal biomass in the MT simulations. Overall, MT was found to have several beneficial effects on the soil structure and on the storage of OM, especially in the surface soil. Furthermore, it was concluded that the high concentration of residues in the surface soil of MT may alter the processes of storage and decomposition of OM. In further investigations, especially analysis of the residue-soil-interface and of effects of the depth of residue incorporation should be emphasised. Moreover, further evidence is needed on differences in the microbial community between CT and MT soils.
Resumo:
The soil amoebae Dictyostelium discoideum take up particles from their environment in order to obtain nutrition. The particle transits through the cell within a phagosome that fuses with organelles of different molecular compositions, undergoing a gradual degradation by different sets of hydrolytic enzymes. Griffiths’ concept of “phagosome individuality” predicts signaling from phagosomes into the cytoplasm, which might regulate many aspects of cell physiology. The finding that Dictyostelium cells depleted of the lysozyme AlyA or over-expressing the esterase Gp70 exhibit increased uptake of food particles, led to the postulation of a signaling cascade between endocytic compartments and the cytoskeletal uptake machinery at the plasma membrane. Assuming that Gp70 acts downstream of AlyA, gene-expression profiling of both mutants revealed different and overlapping sets of misregulated genes that might participate in this signaling cascade. Based on these results, we analyzed the effects of the artificial misregulation of six candidate genes by over-expression or negative genetic interference, in order to reconstruct at least part of the signaling pathway. SSB420 and SSL793 were chosen as candidates for the first signaling step, as they were up-regulated in AlyA-null cells and remained unaltered in the Gp70 over-expressing cells. The over-expression of SSB420 enhanced phagocytosis and raised the expression levels of Gp70, supporting its involvement in the signaling pathway between AlyA and Gp70 as a positive regulator of phagocytosis. However, this was not the case of cells over-expressing SSL793, as this mutation had no effects on phagocytosis. For the signaling downstream of Gp70, we studied four commonly misregulated genes in AlyA-depleted and Gp70 over-expressing cells. The expression levels of SLB350, SSB389 and TipD were lower in both mutants and therefore these were assumed as possible candidates for the negative regulation of phagocytosis. Cells depleted of SLB350 exhibited an increased phagocytic activity and no effect on Gp70 expression, proving its participation in the signaling pathway downstream of Gp70. Unlike SLB350, the disruption of the genes coding for SSB389 and TipD had no effects on particle uptake, excluding them from the pathway. The fourth candidate was Yipf1, the only gene that was commonly up-regulated in both mutants. Yet, the artificial over-expression of this protein had no effects on phagocytosis, so this candidate is also not included in the signaling pathway. Furthermore, localizing the products of the candidate genes within the cell helped unveiling several cellular organelles that receive signals from the phagosome and transduce them towards the uptake machinery.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.
Resumo:
Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.
Resumo:
Im Bereich von Bildung, Weiterbildung und Personalentwicklung genauso wie in klinischen und therapeutischen Kontexten stellt sich immer wieder die Frage, wie Lern- und Veränderungsprozesse bei Menschen wirksam angestoßen und intensiviert werden können. Ziel dabei ist, dass Menschen ihr Potenzial besser entfalten können. Neurobiologisch ist der Frontallappen die Region im Gehirn, die für Lern-, Entwicklungs- und Entfaltungsprozesse besonders relevant ist. Wenn dieser in Aktion ist, dann zeigen wir unser höchstes Bewusstseinsniveau, unser Selbstbewusstsein und die Fähigkeit, die Wirklichkeit aufmerksam und feinfühlig zu beobachten. Der Einsatz von vertrauten und automatischen Routinen aktiviert den für Weiterentwicklungen wichtigen Teil des menschlichen Gehirns nicht. Werden die automatisierten Programme abgerufen, werden wir von unseren Glaubenssätzen und Gewohnheiten bestimmt, die Gefühle übernehmen auf der Basis alter Lernerfahrungen die Steuerung und es entsteht nichts Neues. Mit Hilfe eines neuartigen Diagnoseverfahrens gelingt es, die relevanten Handlungsmuster und die im Laufe des Lebens durchlaufenen Lernerfahrungen objektiv messbar und transparent zu machen, um sie dann leichter zu verändern. Die Ausprägung sog. exekutiver Metakompetenzen ist das Ergebnis von bedeutsamen emotionalen Beziehungserfahrungen, die sich im Gehirn in neuronalen Verschaltungen „eingebrannt“ haben. Sie bestimmen unseren Umgang mit uns selbst wie mit anderen. Verändern können wir nur die Dinge, die wir auch wahrnehmen können. Anhand unterschiedlicher modellhafter Einsätze des Verfahrens in der Praxis, u. a. bei Projekten zur Team- und Potenzialentwicklung in zwei DAX-Unternehmen sowie im Rahmen der Beschäftigungsförderung auf kommunaler Ebene, erläutert die Dissertation die vielfältigen Einsatzmöglichkeiten und den Erkenntnisgewinn für die Beratungspraxis.
Resumo:
The use of renewable primary products as co-substrate or single substrate for biogas production has increased consistently over the last few years. Maize silage is the preferential energy crop used for fermentation due to its high methane (CH4) yield per hectare. Equally, the by-product, namely biogas slurry (BS), is used with increasing frequency as organic fertilizer to return nutrients to the soil and to maintain or increase the organic matter stocks and soil fertility. Studies concerning the application of energy crop-derived BS on the carbon (C) and nitrogen (N) mineralization dynamics are scarce. Thus, this thesis focused on the following objectives: I) The determination of the effects caused by rainfall patterns on the C and N dynamics from two contrasting organic fertilizers, namely BS from maize silage and composted cattle manure (CM), by monitoring emissions of nitrous oxide (N2O), carbon dioxide (CO2) and CH4 as well as leaching losses of C and N. II) The investigation of the impact of differences in soil moisture content after the application of BS and temperature on gaseous emissions (CO2, N2O and CH4) and leaching of C and N compounds. III) A comparison of BS properties obtained from biogas plants with different substrate inputs and operating parameters and their effect on C and N dynamics after application to differently textured soils with varying application rates and water contents. For the objectives I) and II) two experiments (experiment I and II) using undisturbed soil cores of a Haplic Luvisol were carried out. Objective III) was studied on a third experiment (experiment III) with disturbed soil samples. During experiment I three rainfall patterns were implemented including constant irrigation, continuous irrigation with periodic heavy rainfall events, and partial drying with rewetting periods. Biogas slurry and CM were applied at a rate of 100 kg N ha-1. During experiment II constant irrigation and an irrigation pattern with partial drying with rewetting periods were carried out at 13.5°C and 23.5°C. The application of BS took place either directly before a rewetting period or one week after the rewetting period stopped. Experiment III included two soils of different texture which were mixed with ten BS’s originating from ten different biogas plants. Treatments included low, medium and high BS-N application rates and water contents ranging from 50% to 100% of water holding capacity (WHC). Experiment I and II showed that after the application of BS cumulative N2O emissions were 4 times (162 mg N2O-N m-2) higher compared to the application of CM caused by a higher content of mineral N (Nmin) in the form of ammonium (NH4+) in the BS. The cumulative emissions of CO2, however, were on the same level for both fertilizers indicating similar amounts of readily available C after composting and fermentation of organic material. Leaching losses occurred predominantly in the mineral form of nitrate (NO3-) and were higher in BS amended soils (9 mg NO3--N m-2) compared to CM amended soils (5 mg NO3--N m-2). The rainfall pattern in experiment I and II merely affected the temporal production of C and N emissions resulting in reduced CO2 and enhanced N2O emissions during stronger irrigation events, but showed no effect on the cumulative emissions. Overall, a significant increase of CH4 consumption under inconstant irrigation was found. The time of fertilization had no effect on the overall C and N dynamics. Increasing temperature from 13.5°C to 23.5°C enhanced the CO2 and N2O emissions by a factor of 1.7 and 3.7, respectively. Due to the increased microbial activity with increasing temperature soil respiration was enhanced. This led to decreasing oxygen (O2) contents which in turn promoted denitrification in soil due to the extension of anaerobic microsites. Leaching losses of NO3- were also significantly affected by increasing temperature whereas the consumption of CH4 was not affected. The third experiment showed that the input materials of biogas plants affected the properties of the resulting BS. In particular the contents of DM and NH4+ were determined by the amount of added plant biomass and excrement-based biomass, respectively. Correlations between BS properties and CO2 or N2O emissions were not detected. Solely the ammonia (NH3) emissions showed a positive correlation with NH4+ content in BS as well as a negative correlation with the total C (Ct) content. The BS-N application rates affected the relative CO2 emissions (% of C supplied with BS) when applied to silty soil as well as the relative N2O emissions (% of N supplied with BS) when applied to sandy soil. The impacts on the C and N dynamics induced by BS application were exceeded by the differences induced by soil texture. Presumably, due to the higher clay content in silty soils, organic matter was stabilized by organo-mineral interactions and NH4+ was adsorbed at the cation exchange sites. Different water contents induced highest CO2 emissions and therefore optimal conditions for microbial activity at 75% of WHC in both soils. Cumulative nitrification was also highest at 75% and 50% of WHC whereas the relative N2O emissions increased with water content and showed higher N2O losses in sandy soils. In summary it can be stated that the findings of the present thesis confirmed the high fertilizer value of BS’s, caused by high concentrations of NH4+ and labile organic compounds such as readily available carbon. These attributes of BS’s are to a great extent independent of the input materials of biogas plants. However, considerably gaseous and leaching losses of N may occur especially at high moisture contents. The emissions of N2O after field application corresponded with those of animal slurries.
Resumo:
Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.