96 resultados para Komplexität


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pollen analytical studies of four radiocarbon dated sediment records from Switzerland suggest distinct phases of forest clearances and intensified land use from 1450–1250 BC, 650–450 BC, 50 BC–100 AD, and around 700 AD. These land use expansions coincided with periods of warm climate as recorded by Alpine dendroclimatic and Greenland oxygen isotope records. Our results suggest that harvest yields increased synchronously over wide areas of central and southern Europe during periods of warm and dry climate. Positive long-term trends in pollen values of Cerealia and Plantago lanceolata indicate that technical innovations during the Bronze and Iron Ages (e.g. metal ploughs, scythes, hay production, fertilizing methods) gradually increased agricultural productivity. However, our data imply that human societies were not able to compensate rapidly for harvest failures when the climate deteriorated. Agriculture in marginal areas was abandoned, and spontaneous reforestations took place on unoccupied land both north and south of the Alps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Thema dieser Arbeit ist die Interferenzuntersuchung im Sprachenpaar Deutsch–Finnisch und das Thema wird anhand der Theorie der grammatischen Komplexität betrachtet. In dieser Arbeit findet die Theorie mit ihren zentralen Elementen der Komplexität des Finnischen in studentischen und maschinellen Übersetzungen eines von der Autorin ausgesuchten Textes ihre Anwendung. Der Fokus liegt jedoch in studentischen Übersetzungen. Anhand der Ergebnisse wird versucht herauszufinden, ob beim Übersetzen eines komplexeren Ausgangstextes mehr Interferenz vorkommt als bei einem einfacheren Text. Dazu gibt es zwei von ihrem Komplexitätsgrad unterschiedliche Versionen desselben Ausgangstextes. Eine weitere Zuteilung wird aufgrund der Studienphase (Grund- bzw. Fachstudium) gemacht. In der Untersuchung wird angenommen, dass Interferenz sich messen lässt. Jedoch wird die quantitative Analyse durch eine qualitative Betrachtung erweitert. Anhand der Ergebnisse wird auch versucht, einen ersten Rahmen zum Modell zum Messen von Interferenz zu skizzieren. Neben den zentralen Elementen der Komplexität wären dabei die numerische Stellung des Verbes, Anzahl an geketteten Nomina sowie Modi miteinzubeziehen. Die quantitative Annäherung könnte mit qualitativer Betrachtung bzw. Expertenverfahren ergänzt werden. Aus den somit analysierten maschinell übersetzten Texten könnte der mit dem geringsten Interferenzgrad ausgesucht werden. Die quantitative Analyse ergab, dass in beiden Textversionen die wesentlichsten Faktoren der Komplexität die Wortanzahl und die Satzlänge waren, wobei die letztere auch statistisch bestätigt wurde. Zwischen den Studentengruppen waren auch die Satzlänge sowie die Anzahl an Ableitungen von Bedeutung. Die maschinell übersetzten Texte haben andere Eigenschaften erwiesen als die studentischen, und diese Unterschiede waren kleiner als erwartet. Laut qualitativer Betrachtung waren die meisten Vorkommnisse der Interferenz auf syntagmatisch-syntaktischem Niveau, d.h. in der Wort- und Satzstellung, wie auch erwartet wurde. Aufgrund der Ergebnisse lässt sich nicht verallgemeinern, ob sich die Hypothese von mehr Interferenz mit wachsender Komplexität im Ausgangstext sich bestätigen lässt, was auf den geringen Umfang des Korpuses (n=10) zurückzuführen ist. Das schließt jedoch nicht eine weitere Betrachtung mit einem größeren Korpus aus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Artikel wird Zunahme der Komplexität im Entscheidungsumfeld untersucht und auf zeitgemäße, auf Kreativität basierende Problemlösungsstrategien hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein universell verwendbares Mehrzweckschutzrelais (MZR)wird vorgestellt, dessen Schutzfunktionen ausschließlich durch Software bestimmt sind. Mit dem MZR wird nachgewiesen, daß die vorhandene Typenvielfalt von Schutzrelais für Mittelspannungsnetze auf einen Grundtypus reduziert werden kann. Das MZR kann in Stationsleitsysteme eingebunden werden. Die Schutzfunktionen des MZR sind Überstromschutz (MZR-I), Distanzschutz (MZR-Z) und Differentialschutz (MZR-D). Ergänzend werden ausgeführt thermisches Abbild, Erdschlußerkennung, Erdschlußrichtungsbestimmung, Kurzunterbrechung und Betriebsmeßtechnik. Für jede Schutzfunktion wurde ein spezielles Programmsegment erstellt. Je nach Komplexität der Schutzaufgabe übernimmt ein Signalprozessor bestimmte Aufgaben im MZR, wie z.B. digitale Filterung der Meßsignale, Impedanzbestimmung, Diskrete Fouriertransformation, Bestimmung des Mitsystems nach dem Verfahren der symmetrischen Komponenten. Die von der Schutzfunktion unabhängigen Programmbestandteile sind zu einem echtzeitfähigen Multitask-Betriebssystem zusammengefaßt. Ein kostengünstiges MZR-Modul zur Speicherung von Störungsereignissen wird als Erweiterung gegenüber konventionellen Schutzrelais vorgestellt. Hiermit können vom MZR erkannte Störungen achtkanalig erfaßt und mit Echtzeitmarken versehen auf Disketten im standardisierten AufZeichnungsformat gespeichert werden. Ein neues Verfahren zur Simulation des Meßverhaltens der erstellten MZR-Varianten mit dem Programm "EMTP" auf einem Personalcomputer der AT—Klasse wurde entwickelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Prozesskostenrechnung untersucht die Verteilung der Vollkosten auf die bei der Herbarbeleg-Digitalisierung anfallenden Tätigkeiten (hier exemplarisch in 2010). Außerdem stellt dieses Modell ein Instrument zum Monitoring neu eingesetzter Produkt- und Prozessinnovationen dar. Die Tätigkeiten sind in Projektkostenstellen abgegrenzt, um z. B. nach Einzel- und Gemeinkosten zu unterscheiden. Der Fokus liegt auf der Methodenentwicklung. Die Führungsaufgaben und unterstützenden Tätigkeiten sind in Bezug auf die Leistungsmenge neutral. Ihre Kosten werden auf leistungsmengeninduzierende Kerntätigkeiten umgelegt, die in sieben Phasenbereiche konsolidiert wurden. Für die untersuchten Projekte „Willdenow“ und „Global Plant Initiative“ ergaben sich jeweils Leistungs- und Kostenkennzahlen für die einzelnen Phasenbereiche. Entwicklungsbedarf des Modells besteht u. a. bei der Validität der Kostenträger, Zeichenerfassung, Kosten ehrenamtlicher Tätigkeiten, Reduktion der Komplexität und sonstiger Störungen. Die Prozesskostenrechnung ist als ein weiterführendes Instrument der Vollkostenrechnung entwickelt worden und kann auch als Deckungsbeitragsrechnung betrieben werden. Mit den Ergebnissen wird keine Kontrolle der Aufgabenwahrnehmung einzelner Mitarbeiter verfolgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Jedes Problem, an dem Menschen oder Organisationen beteiligt sind, hat – wie eine Zwiebel – verschiedene Schichten“. Unternehmensberater versuchen solche Schichten bei einer gegebenen Problemstellung zu erkennen, um dieses Problem am Ende lösen zu können. Auch sind etwaige kritisch durchdachte Lösungsvorschläge denkbar, welche zu einer Optimierung eines Sachverhaltes führen. Für die Lösungsfindung eines Problems, ist es notwendig, relevante Daten zu erheben. Anhand der gewonnenen Informationen kann ein Gesamtbild über die Sachlage entstehen. Informationen müssen vollständig und qualitativ verwertbar sein – so ist das Vordringen in verschiedene Schichten einer Problemstellung möglich, wobei hier u. U. erst das „wirkliche“ Problem erkannt wird, welches sich zum Beispiel durch Folgeerscheinungen „verdeckt“ halten konnte. Demnach spielen die Consulting – Erhebungsmethoden für den Erkenntnisgewinn einer Lösungsfindung im Rahmen der Ist- Analyse, eine fundamentale Rolle. Welche Erhebungsmethoden sind wann, wo und wie sinnvoll? Gibt es den einen „richtigen“ Erhebungsmix? Welche Kriterien und Einflüsse gilt es bei der Erhebungsauswahl zu berücksichtigen? Festzustellen ist, dass dieses Thema in solch einer zusammengebunden Form noch nicht bearbeitet wurde und nochmals die Komplexität verdeutlicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.