878 resultados para implementation and complexity theory
Resumo:
The main objective of this thesis is to design and develop spectral signature based chipless RFID tags Multiresonators are essential component of spectral signature based chipless tags. To enhance the data coding capacity in spectral signature based tags require large number of resonances in a limited bandwidth. The frequency of the resonators have to be close to each other. To achieve this condition, the quality factor of each resonance needs to be high. The thesis discusses about various types of multiresonators, their practical implementation and how they can be used in design. Encoding of data into spectral domain is another challenge in chipless tag design. Here, the technique used is the presence or absence encoding technique. The presence of a resonance is used to encode Logic 1 and absence of a speci c resonance is used to encode Logic 0. Di erent types of multiresonators such as open stub multiresonators, coupled bunch hairpin resonators and shorted slot ground ring resonator are proposed in this thesis.
Resumo:
We present the first observation of optical transitions between doubly excited doublet states in the term systems N V, 0 VI and F VII. The spectra were produced by foil excitation of fast ion beams. The assignment of the spectral lines was made by comparison with the results of MCDP calculations along the isoelectronic sequence. The same method also led to the identification of two 3d - 4f quartet transitions in Mg X.
Resumo:
Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
Almost all Latin American countries are still marked by extreme forms of social inequality – and to an extent, this seems to be the case regardless of national differences in the economic development model or the strength of democracy and the welfare state. Recent research highlights the fact that the heterogeneous labour markets in the region are a key source of inequality. At the same time, there is a strengthening of ‘exclusive’ social policy, which is located at the fault lines of the labour market and is constantly (re-)producing market-mediated disparities. In the last three decades, this type of social policy has even enjoyed democratic legitimacy. These dynamics challenge many of the assumptions guiding social policy and democratic theory, which often attempt to account for the specificities of the region by highlighting the purported flaws of certain policies. We suggest taking a different perspective: social policy in Latin American should not be grasped as a deficient or flawed type of social policy, but as a very successful relation of political domination. ‘Relational social analysis’ locates social policy in the ‘tension zone’ constituted by the requirements of economic reproduction, demands for democratic legitimacy and the relative autonomy of the state. From this vantage point, we will make the relation of domination in question accessible for empirical research. It seems particularly useful for this purpose to examine the recent shifts in the Latin American labour markets, which have undergone numerous reforms. We will examine which mechanisms, institutions and constellations of actors block or activate the potentials of redistribution inherent in such processes of political reform. This will enable us to explore the socio-political field of forces that has been perpetuating the social inequalities in Latin America for generations.
Resumo:
The Scheme86 and the HP Precision Architectures represent different trends in computer processor design. The former uses wide micro-instructions, parallel hardware, and a low latency memory interface. The latter encourages pipelined implementation and visible interlocks. To compare the merits of these approaches, algorithms frequently encountered in numerical and symbolic computation were hand-coded for each architecture. Timings were done in simulators and the results were evaluated to determine the speed of each design. Based on these measurements, conclusions were drawn as to which aspects of each architecture are suitable for a high- performance computer.
Resumo:
Fine-grained parallel machines have the potential for very high speed computation. To program massively-concurrent MIMD machines, programmers need tools for managing complexity. These tools should not restrict program concurrency. Concurrent Aggregates (CA) provides multiple-access data abstraction tools, Aggregates, which can be used to implement abstractions with virtually unlimited potential for concurrency. Such tools allow programmers to modularize programs without reducing concurrency. I describe the design, motivation, implementation and evaluation of Concurrent Aggregates. CA has been used to construct a number of application programs. Multi-access data abstractions are found to be useful in constructing highly concurrent programs.
Resumo:
The furious pace of Moore's Law is driving computer architecture into a realm where the the speed of light is the dominant factor in system latencies. The number of clock cycles to span a chip are increasing, while the number of bits that can be accessed within a clock cycle is decreasing. Hence, it is becoming more difficult to hide latency. One alternative solution is to reduce latency by migrating threads and data, but the overhead of existing implementations has previously made migration an unserviceable solution so far. I present an architecture, implementation, and mechanisms that reduces the overhead of migration to the point where migration is a viable supplement to other latency hiding mechanisms, such as multithreading. The architecture is abstract, and presents programmers with a simple, uniform fine-grained multithreaded parallel programming model with implicit memory management. In other words, the spatial nature and implementation details (such as the number of processors) of a parallel machine are entirely hidden from the programmer. Compiler writers are encouraged to devise programming languages for the machine that guide a programmer to express their ideas in terms of objects, since objects exhibit an inherent physical locality of data and code. The machine implementation can then leverage this locality to automatically distribute data and threads across the physical machine by using a set of high performance migration mechanisms. An implementation of this architecture could migrate a null thread in 66 cycles -- over a factor of 1000 improvement over previous work. Performance also scales well; the time required to move a typical thread is only 4 to 5 times that of a null thread. Data migration performance is similar, and scales linearly with data block size. Since the performance of the migration mechanism is on par with that of an L2 cache, the implementation simulated in my work has no data caches and relies instead on multithreading and the migration mechanism to hide and reduce access latencies.
Resumo:
Biological systems exhibit rich and complex behavior through the orchestrated interplay of a large array of components. It is hypothesized that separable subsystems with some degree of functional autonomy exist; deciphering their independent behavior and functionality would greatly facilitate understanding the system as a whole. Discovering and analyzing such subsystems are hence pivotal problems in the quest to gain a quantitative understanding of complex biological systems. In this work, using approaches from machine learning, physics and graph theory, methods for the identification and analysis of such subsystems were developed. A novel methodology, based on a recent machine learning algorithm known as non-negative matrix factorization (NMF), was developed to discover such subsystems in a set of large-scale gene expression data. This set of subsystems was then used to predict functional relationships between genes, and this approach was shown to score significantly higher than conventional methods when benchmarking them against existing databases. Moreover, a mathematical treatment was developed to treat simple network subsystems based only on their topology (independent of particular parameter values). Application to a problem of experimental interest demonstrated the need for extentions to the conventional model to fully explain the experimental data. Finally, the notion of a subsystem was evaluated from a topological perspective. A number of different protein networks were examined to analyze their topological properties with respect to separability, seeking to find separable subsystems. These networks were shown to exhibit separability in a nonintuitive fashion, while the separable subsystems were of strong biological significance. It was demonstrated that the separability property found was not due to incomplete or biased data, but is likely to reflect biological structure.
Resumo:
Most of the recent literature on chaos and nonlinear dynamics is written either for popular science magazine readers or for advanced mathematicians. This paper gives a broad introduction to this interesting and rapidly growing field at a level that is between the two. The graphical and analytical tools used in the literature are explained and demonstrated, the rudiments of the current theory are outlined and that theory is discussed in the context of several examples: an electronic circuit, a chemical reaction and a system of satellites in the solar system.
Resumo:
Modeling and simulation permeate all areas of business, science and engineering. With the increase in the scale and complexity of simulations, large amounts of computational resources are required, and collaborative model development is needed, as multiple parties could be involved in the development process. The Grid provides a platform for coordinated resource sharing and application development and execution. In this paper, we survey existing technologies in modeling and simulation, and we focus on interoperability and composability of simulation components for both simulation development and execution. We also present our recent work on an HLA-based simulation framework on the Grid, and discuss the issues to achieve composability.
Resumo:
One of the disadvantages of old age is that there is more past than future: this, however, may be turned into an advantage if the wealth of experience and, hopefully, wisdom gained in the past can be reflected upon and throw some light on possible future trends. To an extent, then, this talk is necessarily personal, certainly nostalgic, but also self critical and inquisitive about our understanding of the discipline of statistics. A number of almost philosophical themes will run through the talk: search for appropriate modelling in relation to the real problem envisaged, emphasis on sensible balances between simplicity and complexity, the relative roles of theory and practice, the nature of communication of inferential ideas to the statistical layman, the inter-related roles of teaching, consultation and research. A list of keywords might be: identification of sample space and its mathematical structure, choices between transform and stay, the role of parametric modelling, the role of a sample space metric, the underused hypothesis lattice, the nature of compositional change, particularly in relation to the modelling of processes. While the main theme will be relevance to compositional data analysis we shall point to substantial implications for general multivariate analysis arising from experience of the development of compositional data analysis…
Resumo:
El objetivo del presente trabajo es el de presentar los diferentes factores administrativos que determinan la velocidad de generación de unidades de la meta de empresas que prestan servicios de rehabilitación a personas en condición de discapacidad física y/o cognitiva del Distrito Capital. Para cumplir este objetivo nos centramos en el estudio de una Institución tipo que presta servicios de rehabilitación, especialmente a niños con discapacidad. El alcance del trabajo, es la caracterización de una empresa que brinda servicios de rehabilitación, revisar que factores administrativos pueden resaltarse como importantes y necesarios dentro de la organización, establecer cuales son los efectos indeseables que tiene una institución de este tipo y por ultimo estimar cual puede ser el factor restrictivo que detiene la velocidad de generación de las unidades de meta de este tipo de empresas. Los autores aplicaron la Teoría de Restricciones TOC en este trabajo, por considerar que desde su filosofía, esta teoría proporciona los lineamientos para aproximarse a la problemática y para sugerir soluciones, que están plasmadas en un plan de acción de inmediata implementación y con rápidos y eficaces resultados. Esperamos que con este estudio se contribuya en la reflexión y en la redefinición de las empresas que prestan servicios de rehabilitación, para lograr, con las herramientas que la Teoría de Restricciones brinda, el desarrollo de un pensamiento interno que favorezca la mejora continua la cual redundara en mejores servicios para sus usuarios.
Resumo:
Este artículo presenta la generación y conceptualización de información, producto de relaciones entre factores o elementos que conforman a las empresas. Sostenemos que este entendimiento se encuentra en el camino de la gestión del conocimiento y la teoría de complejidad. Se toma como estudio de caso a Carrefour Grandes Superficies de Colombia, y se expone de manera descriptiva y reflexiva cómo la compañía opera la información y el impacto de ésta en el área de organización y proyectos. Se presenta el marco teórico compuesto por dos teorías: la gestión del conocimiento y la complejidad. La tesis que sostengo es que en Carrefour el conocimiento y la complejidad dos aspectos fuerza, líderes para el equipo de Organización y Proyectos.
Resumo:
El trabajo inquiere, examina y condena la concepción bíblico-antigua con el cual se ha pretendido acrisolar a las convenciones jurídicas bajo el estigma de la objetividad, especialmente en el contexto de la Responsabilidad Civil Extracontractual de la Administración Pública, contrastado con el débito acaecido una vez presente un juicio orgánico, esto es, la falla del servicio, supuesto extraído en el interactuar antitético de las autoridades públicas respecto de una obligación primaria de cuidado debido, esto es, una norma legal pre-constituida al momento de la actuación material o acto administrativo. Supuesta tal objetividad en la falla del servicio, una dicotomía se presupone en su contra, la elasticidad con que ésta teoría pretende amalgamar bajo unos mismos y nunca cambiantes elementos de imputación jurídica en manos del juez siempre una única responsabilidad en las autoridades públicas. Y por otro lado, la incidencia de la teoría en la praxis, pragmática que no deja de insinuar lo contrario, esto es, supone desavenencias inexpugnables en la aplicación de tales premisas supuestas objetivas. Luego, resultado de este cisma es la indeterminación en la concepción falla del servicio, como concepto que no conoce contornos definidos, lo cual ofrece como síntoma de su abstrusa constitución una espiritual-subjetiva aplicación, y un cuestionamiento ineludible ¿existen líneas jurisprudenciales cuando de responsabilidad extracontractual se trata, en particular, en la falla del servicio?