972 resultados para Modularité massive
Resumo:
Industrial pollutants, consisting of heavy metals, petroleum residues, petrochemicals, and a wide spectrum of pesticides, enter the marine environment on a massive scale and pose a very serious threat to all forms of aquatic life. Although, earlier, efforts were directed towards the identification of pollutants and their major sources, because of a growing apprehension about the potential harm that pesticides can inflict upon various aquatic fauna and flora, research on fundamental and applied aspects of pesticides in the aquatic environment has mushroomed to a point where it has become difficult to even keep track of the current advances and developments. The Cochin Estuarine System (CES), adjoining the Greater Cochin area, receives considerable amounts of domestic sewage, urban wastes, agricultural runoff as well as effluent from the industrial units spread all along its shores. Since preliminary investigations revealed that the most prominent of organic pollutants discharged to these estuarine waters were the pesticides, the present study was designed to analyse the temporal and spatial distribution profile of some of the more toxic, persistent pesticides ——— organochlorines such as DDT and their metabolites; HCH-isomers; a cyclodiene compound," Endosulfan and a widely distributed, easily degradable, organophosphorus compound, Malathion, besides investigating their sorptional and toxicological characteristics. Although, there were indications of widespread contamination of various regions of the CBS with DDT, HCH-isomers etc., due to inadequacies of the monitoring programmes and due to a glaring void of baseline data the causative factors could not identified authentically. Therefore, seasonal and spatial distributions of some of the more commonly used pesticides in the CES were monitored systematically, (employing Gas Chromatographic techniques) and the results are analysed.
Resumo:
A massive programme for the development of small scale industries in India known as ‘Industrial Estates Programme‘ was launched by the Government of India in 1955, This technique of industrialisation was recommended by the Small Scale Industries Board in 1955. The first industrial estate in India was set up at Rajkot (Gujarat) in September 1955 and the first shed allotted in December 1955. Since the Government of India entrusted the state governments with the responsibility of starting the estates, the Government of Kerala decided to start one industrial estate in each district during the second plan. It was envisaged that each district should have two industrial estates each, one as urban estate, the other as semi-urban or rural estate. This study attempts to make an economic evaluation of the Industrial estates programme in Kerala. It is based on a survey of all working industrial units in the 17 major industrial estates of Kerala.
Resumo:
True crabs are the most fascinating group of organisms among the decapod crustaceans. Great importance is attached at present to the increased exploitation of these animals and therefore there is great scope for further development of their fishery. They have a broad and hard carapace, massive chelate legs, bent abdomen and exhibit high degree of adaptation to the environment. They show pelagic, benthic, intertidal, burrowing and terrestrial modes of life. Their commensal association with other invertebrates, their breeding behaviour and life history are of great interest to biologists. More than six hundred species of crabs are known to occur in Indian waters and among them about eight species form a regular fishery along the entire stretch of peninsular India (Rao §§_al., 1973) round the year. Crab fishery in India is fast developing and there is vast scope for them as there are many more potential species. Among the various crustacean diets, crabs are celebrated for deliciousness and for nutritional richness. In recent days, crab food items have become more popular and gained global reception. These resources can also be augmented further by culturing them in ponds in the future. Information on biology and ecology of constituent species go a long way not only in effective exploitation and regulation of the respective fishery resources but also helps in evolving a suitable gear for their capture. Information collected on the national level in various aspects as reproduction, growth rate, larval development, parasites, diseases, nutritive values etc. will be of help in evolving a national policy for the effective utilisation and conservation of this resource. They also provide the baseline information for undertaking any purposeful and meaningful culture activities. Information on the various aspects mentioned above is very much restricted in true crabs and hence the present study
Resumo:
In this paper, we propose a multispectral analysis system using wavelet based Principal Component Analysis (PCA), to improve the brain tissue classification from MRI images. Global transforms like PCA often neglects significant small abnormality details, while dealing with a massive amount of multispectral data. In order to resolve this issue, input dataset is expanded by detail coefficients from multisignal wavelet analysis. Then, PCA is applied on the new dataset to perform feature analysis. Finally, an unsupervised classification with Fuzzy C-Means clustering algorithm is used to measure the improvement in reproducibility and accuracy of the results. A detailed comparative analysis of classified tissues with those from conventional PCA is also carried out. Proposed method yielded good improvement in classification of small abnormalities with high sensitivity/accuracy values, 98.9/98.3, for clinical analysis. Experimental results from synthetic and clinical data recommend the new method as a promising approach in brain tissue analysis.
Resumo:
The 21st century is marked by a paradigm shift in education that has resulted both in threats and opportunities. It has brought new challenges and an opportunity for higher education. Higher education in India is undergoing rapid changes. The challenges ahead are multifaceted and multidimensional. Though the data show a massive growth in the number of students' enrollment in colleges/universities, holistic view reveals that still only a meager of the total population has access to higher education. Globalization and privatization are imposing new challenges but the nations are still entangled in solving the basic problems of accessibility to higher education for all. In the wake of the transition from elitist to mass education, universities worldwide are under pressure to enhance access and equity, on the one hand, and to maintain high standards of quality and excellence, on the other. Today the notion of equity not only implies greater access to higher education, but also opportunities for progress. In recent debates on higher education, the notions of equity and access go beyond minority to diversity. Affirmative action, too, has become raceexclusive and gender-neutral.1
Resumo:
The present study was initiated when several massive outbreaks of Chikungunya, Dengue and Japanese Encephalitis were frequently reported across the State of Kerala. Multiple symptoms persisted among the affected individuals and the public health officials were in search of aetiological agents responsible for the out breaks and, other than clinical samples no resources were available. In this context, a study was undertaken to focus on mosquito larvae to investigate the viruses borne by them which remain silently prevalent in the environment. The study was not a group specific investigation limited to either arbovirus or enterovirus, but had a broad spectrum approach. The study encompassed the viral pathogens that could be isolated, their impact when passaged through cell lines, growth kinetics, titer of the working stocks in specific cell line, the structure by means of transmission electron microscopy(TEM), the one step growth and molecular characterization using molecular tools.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
In der Arbeit wird eine Messgröße für die Mobilität im Personenverkehr formuliert und anhand dieser Messgröße eine vergleichende Bewertung von Szenarien der Siedlungs- und Verkehrsentwicklung vorgenommen. Mobilität im Sinne räumlicher Wahlmöglichkeiten sind die Freiheitsgrade der Menschen in der Auswahl ihrer räumlichen Ziele und Beziehungen. Mehr als das tatsächliche Verhalten unterliegen Wahlmöglichkeiten starken Einflüssen der Siedlungsstruktur. Die relevanten Siedlungsstrukturmerkmale werden zu zwei Hauptmerkmalen zusammengefasst, Lokale Urbanität und Regionale Geometrie, und ihre Ausprägungen zu fünf Leitbildern einer integrierten Entwicklung von Siedlung und Verkehr kombiniert: 1. Kompakte Stadt mit hoher lokaler Urbanität und großflächiger, sternförmiger Geometrie. 2. Städtenetz mit hoher lokaler Urbanität und kleinteiliger, netzförmiger Geometrie. 3. Autoland mit geringer lokaler Urbanität und großflächiger Geometrie. 4. Nivellierung mit mittlerer lokaler Urbanität und großflächiger sternförmiger Geometrie. 5. Differenzierung als ein kleinteiliges Nebeneinander von Städtenetz und Autoland bei nur schwacher gegenseitiger Vernetzung Die Leitbilder werden in einem mittelstädtischen Siedlungsraum in Ostwestfalen zu konkreten Szenarien für das Jahr 2050 entwickelt und die Wahlmöglichkeiten in diesen Szenarien berechnet: 1. In der Kompakten Stadt betragen die Wahlmöglichkeiten im Fußgänger-, Fahrrad- und öffentlichen Verkehr ca. das Zwanzigfache des Autolands und ca. das Fünffache des Nivellierungsszenarios. Selbst im Autoverkehr bietet die Kompakte Stadt ca. doppelt so große Wahlmöglichkeiten wie Autoland oder Nivellierung. Dieser Vergleich offenbart zugleich das verkehrliche Desaster der Trendentwicklung. 2. Der Vergleich sternförmiger Urbanität (Kompakte Stadt) mit netzförmiger Urbanität (Städtenetz) endet unentschieden. Die Mobilitätsvorteile hoher Urbanität lassen sich auch in kleinteiligen Strukturen und in allseitigen Siedlungsnetzen realisieren. 3. Die urbanen Szenarien Kompakte Stadt und Städtenetz erscheinen jedoch in der hier simulierten "Reinform" als planerisches Leitbild eher ungeeignet. Von größerer praktischer Relevanz ist der Vergleich der Szenarien Nivellierung und Differenzierung. In diesem Vergleich erweist sich die intensive Stadt-Umland-Verflechtung und die dafür notwendige Angleichung (Nivellierung) der Verkehrsangebote zwischen urbanen und suburbanen Siedlungsstrukturen als nachteilig. Demgegenüber erreicht das kleinteilige Nebeneinander von urbanem Städtenetz und suburbanem Autoland im Szenario Differenzierung sogar ein ähnliches Niveau räumlicher Wahlmöglichkeiten wie das Städtenetz, trotz wesentlich geringerer urbaner Siedlungsstrukturanteile. Es zeigt somit auch, dass die großen Mobilitätsvorteile urbaner Strukturen bereits bei einer teilweisen (Re-)Urbanisierung erzielt werden können. Suburbanisierung, Autoverkehrswachstum und Stadt-Umland-Verflechtung sind nicht zuletzt Folge von mindestens 70 Jahre alten Leitbildern in Planung und Politik. Die für das Differenzierungs-Szenario notwendige Phase teilräumlicher (Re-)Urbanisierung setzt weder massive Planungszwänge "gegen den Markt" noch große Wachstumsschübe voraus. Notwendig ist aber die Überprüfung vieler weiterer Politikfelder, die auf Siedlung und Verkehr einwirken. Nur geänderte Anreize und Spielregeln können die laufenden kleinen Standort- und Verkehrsentscheidungen in eine neue, effizientere Richtung lenken. Die Neubewertung der Standorte und Verkehrsangebote vergrößert dabei auch die Entwicklungsmasse. Ein frühzeitiges, langsames Umsteuern vermeidet ernsthafte Krisen mit möglicherweise nicht mehr beherrschbaren Verkehrskosten.
Continuation and discontinuation of local institution in community based natural resource management
Resumo:
Currently the push toward frontier areas, which until twenty years ago were still largely untouched by commercial agriculture, is taking place on a massive scale. This push is being driven not the least by global economic developments, such as the price increase of agriculture commodities like coffee and cocoa. In most cases the indigenous communities become trapped between the state monopoly in natural resource management and the competition for resources by external actors. In this processes the indigenous communities start to lose their access to resources. Another victim in this process is the environment where the natural resources are imbedded. International and national organizations working to conserve environment have became conscious of the important role that indigenous people could fulfill as partners in this endeavour. This partnership in struggle has produced a new discourse on the relationship between indigenous people and their environment. As a further consequence, programs were set up to develop what became known as Community Based Natural Resource Management (CBNRM) with its numerous variations. Based on a case study in a village on the eastern border of the Lore Lindu National Park in Central Sulawesi, this study questioned the basic assumption behind the concept of Community Based Natural Resource Management (CBNRM). Namely the assumption that communities living at the margin of forest are socially and culturally homogenous, still more or less egalitarian, and basically living in harmony with their natural environment. This study was inspired by the persistent critique – although still a minority – on the basic assumption the CBNRM from academicians and practitioners working through the Entitlement perspective. Another inspiration was the mounting critique toward the participatory approach. In its effort the study explore further the usefulness of certain approaches. One of the approach much relied on in this study was the local history of the community studied, through exerting oral and local written documents on local history, legends and local stories. These sources proofed quite capable in bringing the local history into the light. Another was the actor oriented approach, which later came to be supported by the concept of Social Pool Resources. The latter concept proofed to be useful as analytical instrument to integrate social institutions and the common pool resources, as a field of action for the different actors as human agencies.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Universitätsgebäude B10 der Fachhochschule Darmstadt (1962) in der Schöfferstraße 1, 64295 Darmstadt, angewandt. Das massive, unter Denkmal stehende Gebäude wird als Institutsgebäude der Fachbereiche Architektur und Bauingenieurswesen genutzt und hat einen quadratischen Grundriss mit Innenhof im Sichtklinkermauerwerk. 2008 wurden die meisten Fenster, die beiden kleinen RLT-Anlagen sowie Teile der Beleuchtungsanlagen ausgetauscht. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 398 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „mittel“ eingestuft. Es wird empfohlen den Heizenergiebedarf durch Dämmungsmaßnahmen an der gesamten Hüllfläche (Fassade, Flachdach, Deckenplatte des 1. OG zum Durchgangsbereich) zu senken. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz von Präsenzmeldern in Verkehrsbereichen geschaffen werden.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Hochschulgebäude L der Fachhochschule Fulda (1936) in der Leipziger Straße 119, 36037 Fulda, angewandt. Das massive Gebäude wurde vom Bundesgrenzschutz durch die Universität übernommen und weist eine kompakte, rechteckige Bauweise auf. Im Jahr 2007 fanden einige Umbau- und Sanierungsmaßnahmen statt, so dass es sich derzeit in einem sehr guten baulichen und anlagentechnischen Zustand befindet. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 187 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „gering“ eingestuft. Trotz des vorhandenen Denkmalschutzes wird eine Dämmung der Außenfassade, aufgrund eines deutlichen Vorteils aus baulicher Sicht und einer erst kürzlich stattgefundenen innenseitigen Renovierung, empfohlen. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz moderner Beleuchtungstechnik mit Präsenzmeldern geschaffen werden.
Resumo:
The working paper’s main objective is to explore the extent to which non-compliance to international labor rights is caused by global competition. From the perspective of institutional economics, compliance with core labor rights is beneficial for sustainable development. Nonetheless, violations of these rights occur on a massive scale. The violators usually blame competitive pressures. A number of studies have come to the conclusion that non-compliance does not provide for a competitive edge, thereby denying any economic rationale for non-compliance. While we sympathize with this conclusion, we find that these studies suffer from faulty assumptions in the design of their regression analyses. The assumption of perfect markets devoid of power relations is particularly unrealistic. While workers' rights promise long-term benefits, they may incur short-term production cost increases. On the supply side, the production sites with the highest amount of labor rights violations are characterized by a near perfect competitive situation. The demand side, however, is dominated by an oligopoly of brand name companies and large retailers. Facing a large pool of suppliers, these companies enjoy more bargaining power. Developing countries, the hosts to most of these suppliers, are therefore limited in their ability to raise labor standards on their own. This competitive situation, however, is the very reason why labor rights have to be negotiated internationally. Our exploration starts with an outline of the institutionalist argument of the benefits of core labor rights. Second, we briefly examine some cross-country empirical studies on the impact of trade liberalization (as a proxy for competitive pressures). Third, we develop our own argument which differentiates the impact of trade liberalization along the axes of labor- and capital-intensive production as well as low and medium skill production. Finally, we present evidence from a study on the impact of trade liberalization in Indonesia on the garment industry as an example of a low skill, laborintensive industry on the one hand, and the automobile as an example for a medium skill, capital-intensive industry on the other hand. Because the garment industry’s workforce consists mainly of women, we also discuss the gender dimension of trade liberalization.
Resumo:
Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.
Resumo:
Rising global energy needs and limited fossil fuel reserves have led to increased use of renewable energies. In Germany, this has entailed massive exploitation of agricultural biomass for biogas generation, associated with unsustainable farming practices. Organic agriculture not only reduces negative environmental impacts, organic farmers were also prime movers in anaerobic digestion (AD) in Germany. This study’s aim was to identify the structure, development, and characteristics of biogas production associated with organic farming systems in order to estimate further development, as well as energetic and associated agronomic potentials. Surveys were conducted among organic farms with AD technology. 144 biogas plants could be included in the analysis. Total installed electrical capacity was 30.8 MWel, accounting for only 0.8% of the total installed electrical capacity in the German biogas sector. Recently, larger plant types (>250 kWel) with increased use of (also purchased) energy crops have emerged. Farmers noticed increases in yields (22% on average) and quality of cash crops in arable farming through integrated biogas production. In conclusion, although the share of AD in organic farming is relatively small it can provide various complementary socio-ecological benefits such as the enhancement of food output through digestate fertilization without additional need for land, while simultaneously reducing greenhouse gas emissions from livestock manures and soils. However, to achieve this eco-functional intensification, AD systems and their management have to be well adapted to farm size and production focus and based primarily on residue biomass.