891 resultados para SWARM-FOUNDING WASP
Resumo:
En 1903, paraît le magnum opus de William Edward Burghardt Du Bois, The Souls of Black Folk. Ce dernier écrit cet ouvrage en poursuivant trois objectifs. Primo, il souhaite démontrer que Booker T. Washington et ses supporters font fausse route en défendant l’idée selon laquelle les Afro-américains pourront accéder à un avenir meilleur en échangeant leurs droits politiques contre des opportunités économiques. Secundo, Du Bois cherche à faire la lumière sur les talents distinctifs et les grandes réalisations de son peuple afin de convaincre les Blancs que les Noirs ne leur sont pas biologiquement ou moralement inférieurs et, par conséquent, que l’égalité raciale doit être totale et immédiate. Tertio, il veut persuader les Américains de devenir de meilleurs citoyens, en renouant avec les idéaux de leur République et en vivant en fonction de principes moraux élevés. L’écriture de Souls marque un tournant majeur dans la vie intellectuelle de son auteur, car il renonce à cette époque au discours conciliatoire qu’il avait tenu dans sa jeunesse. Les idées qu’il défend dans son livre ont germé quelques années plus tôt, au contact de certains de ses professeurs de l’Université de Berlin, d’Alexander Crummell et surtout, en effectuant une étude de terrain sur la communauté noire de Philadelphie. Du Bois réalise alors l’ampleur des injustices dont sont victimes les Noirs et contre lesquelles la bonne volonté et le travail acharné ne peuvent rien.
Resumo:
Prenant le parti d’étudier la culture numérique émergente selon des rapports de continuité plutôt que de rupture, cet article envisage la question de l’auctorialité féminine sur le web au regard du mythe antique de Dibutade. Il semble en effet que Dibutade, en sa qualité de figure fondatrice de nombreuses pratiques artistiques, nous permet de porter un éclairage tout à fait intéressant sur la façon dont certaines bloggeuses affirment leur statut de femme auteur, jouant rôle majeur et moteur dans l’émergence et la reconnaissance d’une littérature numérique (conçue en ligne, publiée en ligne). Les analyses conduites dans cet article entendent souligner le potentiel esthétique de certaines pratiques d’écriture en ligne souvent ignorées par les études littéraires : les profils Facebook, les blogues érotiques voire pornographiques.
Resumo:
Ce texte comprend quatre parties. Dans la première, nous insistons sur deux aspects : la présentation de l’analyse de 31 cas traités par Freud mettant en évidence la non efficacité de son approche et l’aveu de Freud quant à sa vocation littéraire. Au cours de la deuxième partie, nous montrons que le caractère dogmatique des débuts de la psychanalyse sévit encore aujourd’hui dans certains milieux. Nous verrons d’abord que le dogmatisme a mis fin à la carrière de Piaget à titre de psychanalyste, puis nous insisterons sur le fait que la soumission à l’autorité, une caractéristique centrale du dogmatisme, imprègne la psychanalyse et que le cas fondateur de celle-ci, Anna O., repose sur le dogme et le mensonge. Dans la troisième partie, à l’aide d’exemples tirés des écrits de Lacan, Dolto et Bettelheim ainsi que de la pratique actuelle, nous répondrons à ceux qui prétendent que la psychanalyse a évolué, que tel n’est pas nécessairement le cas. Enfin, nous mettons en évidence que la tentative des psychanalystes de récupérer le courant de la neuropsychologie à leur profit ne tient pas la route.
Resumo:
To ensure quality of machined products at minimum machining costs and maximum machining effectiveness, it is very important to select optimum parameters when metal cutting machine tools are employed. Traditionally, the experience of the operator plays a major role in the selection of optimum metal cutting conditions. However, attaining optimum values each time by even a skilled operator is difficult. The non-linear nature of the machining process has compelled engineers to search for more effective methods to attain optimization. The design objective preceding most engineering design activities is simply to minimize the cost of production or to maximize the production efficiency. The main aim of research work reported here is to build robust optimization algorithms by exploiting ideas that nature has to offer from its backyard and using it to solve real world optimization problems in manufacturing processes.In this thesis, after conducting an exhaustive literature review, several optimization techniques used in various manufacturing processes have been identified. The selection of optimal cutting parameters, like depth of cut, feed and speed is a very important issue for every machining process. Experiments have been designed using Taguchi technique and dry turning of SS420 has been performed on Kirlosker turn master 35 lathe. Analysis using S/N and ANOVA were performed to find the optimum level and percentage of contribution of each parameter. By using S/N analysis the optimum machining parameters from the experimentation is obtained.Optimization algorithms begin with one or more design solutions supplied by the user and then iteratively check new design solutions, relative search spaces in order to achieve the true optimum solution. A mathematical model has been developed using response surface analysis for surface roughness and the model was validated using published results from literature.Methodologies in optimization such as Simulated annealing (SA), Particle Swarm Optimization (PSO), Conventional Genetic Algorithm (CGA) and Improved Genetic Algorithm (IGA) are applied to optimize machining parameters while dry turning of SS420 material. All the above algorithms were tested for their efficiency, robustness and accuracy and observe how they often outperform conventional optimization method applied to difficult real world problems. The SA, PSO, CGA and IGA codes were developed using MATLAB. For each evolutionary algorithmic method, optimum cutting conditions are provided to achieve better surface finish.The computational results using SA clearly demonstrated that the proposed solution procedure is quite capable in solving such complicated problems effectively and efficiently. Particle Swarm Optimization (PSO) is a relatively recent heuristic search method whose mechanics are inspired by the swarming or collaborative behavior of biological populations. From the results it has been observed that PSO provides better results and also more computationally efficient.Based on the results obtained using CGA and IGA for the optimization of machining process, the proposed IGA provides better results than the conventional GA. The improved genetic algorithm incorporating a stochastic crossover technique and an artificial initial population scheme is developed to provide a faster search mechanism. Finally, a comparison among these algorithms were made for the specific example of dry turning of SS 420 material and arriving at optimum machining parameters of feed, cutting speed, depth of cut and tool nose radius for minimum surface roughness as the criterion. To summarize, the research work fills in conspicuous gaps between research prototypes and industry requirements, by simulating evolutionary procedures seen in nature that optimize its own systems.
Resumo:
This thesis attempts to gain insight on the mathematical approach to estuarine oceanographic systems; also to closely understand the governing processes in the estuarine environment as well as in the adjoining river reaches. The main aim was to conduct pollution routing for tropical estuarine environment namely, for the Cochin estuary. In this context, attempts have been made to apply, verify and validate the application of models, pre- prepared with necessary modifications to suit the area of interest by use of RIVMIX and WASP tools. Finally the thesis concludes by highlighting the advantages and limitations in modelling water bodies and concurrentlysimulates most of the possible scenarios within the purview of this work.
Resumo:
Frames are the most widely used structural system for multistorey buildings. A building frame is a three dimensional discrete structure consisting of a number of high rise bays in two directions at right angles to each other in the vertical plane. Multistorey frames are a three dimensional lattice structure which are statically indeterminate. Frames sustain gravity loads and resist lateral forces acting on it. India lies at the north westem end of the Indo-Australian tectonic plate and is identified as an active tectonic area. Under horizontal shaking of the ground, horizontal inertial forces are generated at the floor levels of a multistorey frame. These lateral inertia forces are transferred by the floor slab to the beams, subsequently to the columns and finally to the soil through the foundation system. There are many parameters that affect the response of a structure to ground excitations such as, shape, size and geometry of the structure, type of foundation, soil characteristics etc. The Soil Structure Interaction (SS1) effects refer to the influence of the supporting soil medium on the behavior of the structure when it is subjected to different types of loads. Interaction between the structure and its supporting foundation and soil, which is a complete system, has been modeled with finite elements. Numerical investigations have been carried out on a four bay, twelve storeyed regular multistorey frame considering depth of fixity at ground level, at characteristic depth of pile and at full depth. Soil structure interaction effects have been studied by considering two models for soil viz., discrete and continuum. Linear static analysis has been conducted to study the interaction effects under static load. Free vibration analysis and further shock spectrum analysis has been conducted to study the interaction effects under time dependent loads. The study has been extended to four types of soil viz., laterite, sand, alluvium and layered.The structural responses evaluated in the finite element analysis are bending moment, shear force and axial force for columns, and bending moment and shear force for beams. These responses increase with increase in the founding depth; however these responses show minimal increase beyond the characteristic length of pile. When the soil structure interaction effects are incorporated in the analysis, the aforesaid responses of the frame increases upto the characteristic depth and decreases when the frame has been analysed for the full depth. It has been observed that shock spectrum analysis gives wide variation of responses in the frame compared to linear elastic analysis. Both increase and decrease in responses have been observed in the interior storeys. The good congruence shown by the two finite element models viz., discrete and continuum in linear static analysis has been absent in shock spectrum analysis.
Resumo:
Computational Biology is the research are that contributes to the analysis of biological data through the development of algorithms which will address significant research problems.The data from molecular biology includes DNA,RNA ,Protein and Gene expression data.Gene Expression Data provides the expression level of genes under different conditions.Gene expression is the process of transcribing the DNA sequence of a gene into mRNA sequences which in turn are later translated into proteins.The number of copies of mRNA produced is called the expression level of a gene.Gene expression data is organized in the form of a matrix. Rows in the matrix represent genes and columns in the matrix represent experimental conditions.Experimental conditions can be different tissue types or time points.Entries in the gene expression matrix are real values.Through the analysis of gene expression data it is possible to determine the behavioral patterns of genes such as similarity of their behavior,nature of their interaction,their respective contribution to the same pathways and so on. Similar expression patterns are exhibited by the genes participating in the same biological process.These patterns have immense relevance and application in bioinformatics and clinical research.Theses patterns are used in the medical domain for aid in more accurate diagnosis,prognosis,treatment planning.drug discovery and protein network analysis.To identify various patterns from gene expression data,data mining techniques are essential.Clustering is an important data mining technique for the analysis of gene expression data.To overcome the problems associated with clustering,biclustering is introduced.Biclustering refers to simultaneous clustering of both rows and columns of a data matrix. Clustering is a global whereas biclustering is a local model.Discovering local expression patterns is essential for identfying many genetic pathways that are not apparent otherwise.It is therefore necessary to move beyond the clustering paradigm towards developing approaches which are capable of discovering local patterns in gene expression data.A biclusters is a submatrix of the gene expression data matrix.The rows and columns in the submatrix need not be contiguous as in the gene expression data matrix.Biclusters are not disjoint.Computation of biclusters is costly because one will have to consider all the combinations of columans and rows in order to find out all the biclusters.The search space for the biclustering problem is 2 m+n where m and n are the number of genes and conditions respectively.Usually m+n is more than 3000.The biclustering problem is NP-hard.Biclustering is a powerful analytical tool for the biologist.The research reported in this thesis addresses the problem of biclustering.Ten algorithms are developed for the identification of coherent biclusters from gene expression data.All these algorithms are making use of a measure called mean squared residue to search for biclusters.The objective here is to identify the biclusters of maximum size with the mean squared residue lower than a given threshold. All these algorithms begin the search from tightly coregulated submatrices called the seeds.These seeds are generated by K-Means clustering algorithm.The algorithms developed can be classified as constraint based,greedy and metaheuristic.Constarint based algorithms uses one or more of the various constaints namely the MSR threshold and the MSR difference threshold.The greedy approach makes a locally optimal choice at each stage with the objective of finding the global optimum.In metaheuristic approaches particle Swarm Optimization(PSO) and variants of Greedy Randomized Adaptive Search Procedure(GRASP) are used for the identification of biclusters.These algorithms are implemented on the Yeast and Lymphoma datasets.Biologically relevant and statistically significant biclusters are identified by all these algorithms which are validated by Gene Ontology database.All these algorithms are compared with some other biclustering algorithms.Algorithms developed in this work overcome some of the problems associated with the already existing algorithms.With the help of some of the algorithms which are developed in this work biclusters with very high row variance,which is higher than the row variance of any other algorithm using mean squared residue, are identified from both Yeast and Lymphoma data sets.Such biclusters which make significant change in the expression level are highly relevant biologically.
Resumo:
In this paper, moving flock patterns are mined from spatio- temporal datasets by incorporating a clustering algorithm. A flock is defined as the set of data that move together for a certain continuous amount of time. Finding out moving flock patterns using clustering algorithms is a potential method to find out frequent patterns of movement in large trajectory datasets. In this approach, SPatial clusteRing algoRithm thrOugh sWarm intelligence (SPARROW) is the clustering algorithm used. The advantage of using SPARROW algorithm is that it can effectively discover clusters of widely varying sizes and shapes from large databases. Variations of the proposed method are addressed and also the experimental results show that the problem of scalability and duplicate pattern formation is addressed. This method also reduces the number of patterns produced
Resumo:
Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.
Resumo:
In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.
Resumo:
The rejection of the European Constitution marks an important crystallization point for debate about the European Union (EU) and the integration process. The European Constitution was envisaged as the founding document of a renewed and enlarged European Union and thus it was rather assumed to find wide public support. Its rejection was not anticipated. The negative referenda in France and the Netherlands therefore led to a controversial debate about the more fundamental meaning and the consequences of the rejection both for the immediate state of affairs as well as for the further integration process. The rejection of the Constitution and the controversy about its correct interpretation therefore present an intriguing puzzle for political analysis. Although the treaty rejection was taken up widely in the field of European Studies, the focus of existing analyses has predominantly been on explaining why the current situation occurred. Underlying these approaches is the premise that by establishing the reasons for the rejection it is possible to derive the ‘true’ meaning of the event for the EU integration process. In my paper I rely on an alternative, discourse theoretical approach which aims to overcome the positivist perspective dominating the existing analyses. I argue that the meaning of the event ‘treaty rejection’ is not fixed or inherent to it but discursively constructed. The critical assessment of this concrete meaning-production is of high relevance as the specific meaning attributed to the treaty rejection effectively constrains the scope for supposedly ‘reasonable’ options for action, both in the concrete situation and in the further European integration process more generally. I will argue that the overall framing suggests a fundamental technocratic approach to governance from part of the Commission. Political struggle and public deliberation is no longer foreseen as the concrete solutions to the citizens’ general concerns are designed by supposedly apolitical experts. Through the communicative diffusion and the active implementation of this particular model of governance the Commission shapes the future integration process in a more substantial way than is obvious from its seemingly limited immediate problem-solving orientation of overcoming the ‘constitutional crisis’. As the European Commission is a central actor in the discourse production my analysis focuses on the specific interpretation of the situation put forward by the Commission. In order to work out the Commission’s particular take on the event I conducted a frame analysis (according to Benford/Snow) on a body of key sources produced in the context of coping with the treaty rejection.
Resumo:
Māori food sovereignty was and continues to be severely affected by British colonisation and influence. This situation and its causes, both past and present, will be examined in the context of Māori culture, especially Te Tiriti, a founding document of New Zealand. The general concept of food sovereignty is introduced, and its key principle: having power over one's own food system. A brief history of Māori food systems is necessary as context–their adaptation from Polynesia to New Zealand and later, to European settlement. Te Tiriti and the Treaty of Waitangi are explained: how they were created and why Te Tiriti is authoritative. Then, different aspects of Te Tiriti are linked to various parts of Māori food sovereignty and traditional Māori concepts. Through breaching tuku whenua in Te Tiriti, land issues have arisen: the methods used to confiscate Māori land and the effects this had on traditional food, health and urbanisation are discussed. Culture as taonga is examined: the ways in which losing a food system leads to losing traditions, and how this breaches Te Tiriti. Then the (mostly negative) effects of this shift in food systems on the environment is examined, and how this relates back to taonga as well as the traditional duty of kaitiakitanga and, again, the breaching of Te Tiriti. Lastly, the underlying issue of power is examined in relation to rangatiratanga and overall sovereignty–this is also linked to Te Tiriti.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
We have simulated the behavior of several artificial flies, interacting visually with each other. Each fly is described by a simple tracking system (Poggio and Reichardt, 1973; Land and Collett, 1974) which summarizes behavioral experiments in which individual flies fixate a target. Our main finding is that the interaction of theses implemodules gives rise to a variety of relatively complex behaviors. In particular, we observe a swarm-like behavior of a group of many artificial flies for certain reasonable ranges of our tracking system parameters.
Resumo:
El conflicto árabe-israelí es de los más antiguos que existen en el mundo, es por esto que es importante conocer algunas de las causalidades del por qué este conflicto no ha logrado solucionarse. En este caso se estudiará como el discurso de Hamás logra influir en la prolongación de este conflicto. Para determinar como el discurso logra influir se hace la división en tres capítulos. En el primer capitulo se determinan cuales son los elementos característicos de su discurso; en este caso los elementos son antisemitismo, irredentismo y nacionalismo que se encuentran presentes en todos los discursos y en su carta fundacional. En una segunda parte se busca determinar como el discurso se convierte en realidad, haciéndose tangible por medio de atentados terroristas por parte del brazo armado de Hamás denominado Ezzedine Al-Qassam. En el último capítulo se determina como el discurso se convierte en un elemento determinante para la prolongación del conflicto y de que manera afecta tanto a la población israelí como a la palestina. Por otra parte se busca evidenciar como el discurso de Hamás influye en diferentes niveles (individual, comunitario, binacional e internacional). Finalmente se logra establecer como el discurso de Hamás y las experiencias de vida de israelíes y palestinos configuran el escenario perfecto para la continuación del conflicto.