832 resultados para Centralized and Distributed Multi-Agent Routing Schemas
Resumo:
Cooperative behaviour of agents within highly dynamic and nondeterministic domains is an active field of research. In particular establishing highly responsive teamwork, where agents are able to react on dynamic changes in the environment while facing unreliable communication and sensory noise, is an open problem. Moreover, modelling such responsive, cooperative behaviour is difficult. In this work, we specify a novel model for cooperative behaviour geared towards highly dynamic domains. In our approach, agents estimate each other’s decision and correct these estimations once they receive contradictory information. We aim at a comprehensive approach for agent teamwork featuring intuitive modelling capabilities for multi-agent activities, abstractions over activities and agents, and a clear operational semantic for the new model. This work encompasses a complete specification of the new language, ALICA.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
Most Artificial Intelligence (AI) work can be characterized as either ``high-level'' (e.g., logical, symbolic) or ``low-level'' (e.g., connectionist networks, behavior-based robotics). Each approach suffers from particular drawbacks. High-level AI uses abstractions that often have no relation to the way real, biological brains work. Low-level AI, on the other hand, tends to lack the powerful abstractions that are needed to express complex structures and relationships. I have tried to combine the best features of both approaches, by building a set of programming abstractions defined in terms of simple, biologically plausible components. At the ``ground level'', I define a primitive, perceptron-like computational unit. I then show how more abstract computational units may be implemented in terms of the primitive units, and show the utility of the abstract units in sample networks. The new units make it possible to build networks using concepts such as long-term memories, short-term memories, and frames. As a demonstration of these abstractions, I have implemented a simulator for ``creatures'' controlled by a network of abstract units. The creatures exist in a simple 2D world, and exhibit behaviors such as catching mobile prey and sorting colored blocks into matching boxes. This program demonstrates that it is possible to build systems that can interact effectively with a dynamic physical environment, yet use symbolic representations to control aspects of their behavior.
Resumo:
Wavelength division multiplexing (WDM) networks have been adopted as a near-future solution for the broadband Internet. In previous work we proposed a new architecture, named enhanced grooming (G+), that extends the capabilities of traditional optical routes (lightpaths). In this paper, we compare the operational expenditures incurred by routing a set of demands using lightpaths with that of lighttours. The comparison is done by solving an integer linear programming (ILP) problem based on a path formulation. Results show that, under the assumption of single-hop routing, almost 15% of the operational cost can be reduced with our architecture. In multi-hop routing the operation cost is reduced in 7.1% and at the same time the ratio of operational cost to number of optical-electro-optical conversions is reduced for our architecture. This means that ISPs could provide the same satisfaction in terms of delay to the end-user with a lower investment in the network architecture
Resumo:
El fin de la Guerra Fría supuso no sólo el triunfo del capitalismo y de la democracia liberal, sino un cambio significativo en el Sistema Internacional; siendo menos centralizado y más regionalizado, como consecuencia de la proximidad y relaciones de interdependencia entre sus actores (no sólo Estados) y permitiendo la formación de Complejos Regionales de Seguridad (CRS). Los CRS son una forma efectiva de relacionarse y aproximarse a la arena internacional pues a través de sus procesos de securitización y desecuritización consiguen lograr objetivos específicos. Partiendo de ello, tanto la Unión Europea (UE) como la Comunidad para el Desarrollo de África Austral (SADC) iniciaron varios procesos de securitización relacionados con la integración regional; siendo un ejemplo de ello la eliminación de los controles en sus fronteras interiores o libre circulación de personas; pues consideraron que de no hacerse realidad, ello generaría amenazas políticas (su influencia y capacidad de actuación estaban amenazadas), económicas (en cuanto a su competitividad y niveles básicos de bienestar) y societales (en cuanto a la identidad de la comunidad como indispensable para la integración) que pondrían en riesgo la existencia misma de sus CRS. En esta medida, la UE creó el Espacio Schengen, que fue producto de un proceso de securitización desde inicios de la década de los 80 hasta mediados de la década de los 90; y la SADC se encuentra inmersa en tal proceso de securitización desde 1992 hasta la actualidad y espera la ratificación del Protocolo para la Facilitación del Movimiento de personas como primer paso para lograr la eliminación de controles en sus fronteras interiores. Si bien tanto la UE como la SADC consideraron que de no permitir la libre circulación de personas, su integración y por lo tanto, sus CRS estaban en riesgo; la SADC no lo ha logrado. Ello hace indispensable hacer un análisis más profundo de sus procesos de securitización para así encontrar sus falencias con respecto al éxito de la UE. El análisis está basado en la Teoría de los Complejos de Seguridad de Barry Buzan, plasmada en la obra Security a New Framework for Analysis (1998) de Barry Buzan, Ole Waever y Jaap de Wilde y será dividido en cada una de las etapas del proceso de securitización: la identificación de una amenaza existencial a un objeto referente a través de un acto discursivo, la aceptación de una amenaza por parte de una audiencia relevante y las acciones de emergencia para hacer frente a las amenazas existenciales; reconociendo las diferencias y similitudes de un proceso de securitización exitoso frente a otro que aún no lo ha sido.
Variación en la resistencia al flujo de los tubos endotraqueales pediátricos modificando su longitud
Resumo:
Introducción: Se conocen los beneficios del uso de los tubos endotraqueales con neumotaponador, aunque dicha práctica tiene un impacto sobre el trabajo respiratorio durante el acto anestésico sin embargo se propone estudiar las consecuencias físicas de la variación en la longitud de los tubos para compensar dicha perdida de flujo, con base en la ley de Hagen-Poiseuille. Metodología: Se realizó un estudio experimental in vitro, en el cual se realizaron mediciones repetidas de flujo, variando la longitud y diámetro de diferentes tubos endotraqueales pediátricos (desde calibre 3.5mm hasta 6.5mm), con longitudes de 20cm, 15 cm, 10 cm y manteniendo su longitud original. Se analizaron los datos con el fin de medir el impacto sobre el flujo. Resultados: A pesar que los resultados muestran diferencias estadísticamente significativas (p0,000), la variación en la longitud de los tubos endotraqueales pediátricos tiene mucho menor impacto sobre la variación en el flujo, que la modificación del diámetro. Discusión: Si bien la práctica de acortar la longitud de un tubo endotraqueal pediátrico puede ayudar a reducir el espacio muerto y la retención de CO2, el impacto que tiene sobre el flujo es poco. Cuando se trata de disminuir el trabajo respiratorio de un niño en ventilación espontánea durante el acto anestésico, se debe escoger de forma apropiada el calibre de tubo correspondiente para la edad.
Resumo:
The problem of stability analysis for a class of neutral systems with mixed time-varying neutral, discrete and distributed delays and nonlinear parameter perturbations is addressed. By introducing a novel Lyapunov-Krasovskii functional and combining the descriptor model transformation, the Leibniz-Newton formula, some free-weighting matrices, and a suitable change of variables, new sufficient conditions are established for the stability of the considered system, which are neutral-delay-dependent, discrete-delay-range dependent, and distributeddelay-dependent. The conditions are presented in terms of linear matrix inequalities (LMIs) and can be efficiently solved using convex programming techniques. Two numerical examples are given to illustrate the efficiency of the proposed method
Resumo:
La gestió de l'aigua residual és una tasca complexa. Hi ha moltes substàncies contaminants conegudes però encara moltes per conèixer, i el seu efecte individual o col·lgectiu és difícil de predir. La identificació i avaluació dels impactes ambientals resultants de la interacció entre els sistemes naturals i socials és un assumpte multicriteri. Els gestors ambientals necessiten eines de suport pels seus diagnòstics per tal de solucionar problemes ambientals. Les contribucions d'aquest treball de recerca són dobles: primer, proposar l'ús d'un enfoc basat en la modelització amb agents per tal de conceptualitzar i integrar tots els elements que estan directament o indirectament involucrats en la gestió de l'aigua residual. Segon, proposar un marc basat en l'argumentació amb l'objectiu de permetre als agents raonar efectivament. La tesi conté alguns exemples reals per tal de mostrar com un marc basat amb agents que argumenten pot suportar diferents interessos i diferents perspectives. Conseqüentment, pot ajudar a construir un diàleg més informat i efectiu i per tant descriure millor les interaccions entre els agents. En aquest document es descriu primer el context estudiat, escalant el problema global de la gestió de la conca fluvial a la gestiódel sistema urbà d'aigües residuals, concretament l'escenari dels abocaments industrials. A continuació, s'analitza el sistema mitjançant la descripció d'agents que interaccionen. Finalment, es descriuen alguns prototips capaços de raonar i deliberar, basats en la lògica no monòtona i en un llenguatge declaratiu (answer set programming). És important remarcar que aquesta tesi enllaça dues disciplines: l'enginyeria ambiental (concretament l'àrea de la gestió de les aigües residuals) i les ciències de la computació (concretament l'àrea de la intel·ligència artificial), contribuint així a la multidisciplinarietat requerida per fer front al problema estudiat. L'enginyeria ambiental ens proporciona el coneixement del domini mentre que les ciències de la computació ens permeten estructurar i especificar aquest coneixement.
Resumo:
En años recientes,la Inteligencia Artificial ha contribuido a resolver problemas encontrados en el desempeño de las tareas de unidades informáticas, tanto si las computadoras están distribuidas para interactuar entre ellas o en cualquier entorno (Inteligencia Artificial Distribuida). Las Tecnologías de la Información permiten la creación de soluciones novedosas para problemas específicos mediante la aplicación de los hallazgos en diversas áreas de investigación. Nuestro trabajo está dirigido a la creación de modelos de usuario mediante un enfoque multidisciplinario en los cuales se emplean los principios de la psicología, inteligencia artificial distribuida, y el aprendizaje automático para crear modelos de usuario en entornos abiertos; uno de estos es la Inteligencia Ambiental basada en Modelos de Usuario con funciones de aprendizaje incremental y distribuido (conocidos como Smart User Model). Basándonos en estos modelos de usuario, dirigimos esta investigación a la adquisición de características del usuario importantes y que determinan la escala de valores dominantes de este en aquellos temas en los cuales está más interesado, desarrollando una metodología para obtener la Escala de Valores Humanos del usuario con respecto a sus características objetivas, subjetivas y emocionales (particularmente en Sistemas de Recomendación).Una de las áreas que ha sido poco investigada es la inclusión de la escala de valores humanos en los sistemas de información. Un Sistema de Recomendación, Modelo de usuario o Sistemas de Información, solo toman en cuenta las preferencias y emociones del usuario [Velásquez, 1996, 1997; Goldspink, 2000; Conte and Paolucci, 2001; Urban and Schmidt, 2001; Dal Forno and Merlone, 2001, 2002; Berkovsky et al., 2007c]. Por lo tanto, el principal enfoque de nuestra investigación está basado en la creación de una metodología que permita la generación de una escala de valores humanos para el usuario desde el modelo de usuario. Presentamos resultados obtenidos de un estudio de casos utilizando las características objetivas, subjetivas y emocionales en las áreas de servicios bancarios y de restaurantes donde la metodología propuesta en esta investigación fue puesta a prueba.En esta tesis, las principales contribuciones son: El desarrollo de una metodología que, dado un modelo de usuario con atributos objetivos, subjetivos y emocionales, se obtenga la Escala de Valores Humanos del usuario. La metodología propuesta está basada en el uso de aplicaciones ya existentes, donde todas las conexiones entre usuarios, agentes y dominios que se caracterizan por estas particularidades y atributos; por lo tanto, no se requiere de un esfuerzo extra por parte del usuario.
Resumo:
The Dapperstreet[1] ...Anything is a lot, when you expect so little Life keeps its wonders hidden To suddenly reveal them in a divine state. I thought about all t Soaking wet, one drizzly morning, Simply happy in the Dapperstreet. The Dapperstreet is part of a neighbourhood often referred to as “East”, situated in the eastern part of Amsterdam. It is a lively and vibrant multi-cultural part of the city. It has a daily market with food from around the world, but is also known worldwide because of the murder on Theo van Gogh, the Dutch film director who was killed there in 2001 because of his critical and provocative statements on the Islam. Thus it can be concluded that it is certainly a neighbourhood with its own problems but, as can be read in Bloem’s poem, a place to call home and long for. [1] Poem by J.C. Bloem, The Dapperstreet (Het Verlangen, 1921). Translation by Davida de Hond.
Resumo:
The Konstanz Information Miner is a modular environment which enables easy visual assembly and interactive execution of a data pipeline. It is designed as a teaching, research and collaboration platform, which enables easy integration of new algorithms, data manipulation or visualization methods as new modules or nodes. In this paper we describe some of the design aspects of the underlying architecture and briefly sketch how new nodes can be incorporated.
Resumo:
Frequent pattern discovery in structured data is receiving an increasing attention in many application areas of sciences. However, the computational complexity and the large amount of data to be explored often make the sequential algorithms unsuitable. In this context high performance distributed computing becomes a very interesting and promising approach. In this paper we present a parallel formulation of the frequent subgraph mining problem to discover interesting patterns in molecular compounds. The application is characterized by a highly irregular tree-structured computation. No estimation is available for task workloads, which show a power-law distribution in a wide range. The proposed approach allows dynamic resource aggregation and provides fault and latency tolerance. These features make the distributed application suitable for multi-domain heterogeneous environments, such as computational Grids. The distributed application has been evaluated on the well known National Cancer Institute’s HIV-screening dataset.
Resumo:
Studies of construction labour productivity have revealed that limited predictability and multi-agent social complexity make long-range planning of construction projects extremely inaccurate. Fire-fighting, a cultural feature of construction project management, social and structural diversity of involved permanent organizations, and structural temporality all contribute towards relational failures and frequent changes. The main purpose of this paper is therefore to demonstrate that appropriate construction planning may have a profound synergistic effect on structural integration of a project organization. Using the general systems theory perspective it is further a specific objective to investigate and evaluate organizational effects of changes in planning and potentials for achieving continuous project-organizational synergy. The newly developed methodology recognises that planning should also represent a continuous, improvement-leading driving force throughout a project. The synergistic effect of the process planning membership duality fostered project-wide integration, eliminated internal boundaries, and created a pool of constantly upgrading knowledge. It maintained a creative environment that resulted in a number of process-related improvements from all parts of the organization. As a result labour productivity has seen increases of more than 30%, profits have risen from an average of 12% to more than 18%, and project durations have been reduced by several days.
Resumo:
The linear isomer of dodecylbenzene (DDB), 1-phenyldodecane, was aged at temperatures of 105 and 135 degrees C in air and the resultant products were analyzed using a range of analytical techniques. On ageing, the 1-phenyldodecane darkened, the acid number, dielectric loss and water content increased and significant oxidation peaks were detected in the infrared spectrum. When aged in the presence of copper, a characteristic peak at 680 nm was also detected by UV/visible spectroscopy but, compared with previous studies of a cable-grade DDB, the strength of this peak was much increased and no appreciable precipitate formation occurred. At the same time, very high values of dielectric loss were recorded. On ageing in the absence of copper, an unusually strong infrared carbonyl band was seen, which correlates well with the detection of dodecanophenone by gas chromatography / mass spectrometry and nuclear magnetic resonance spectroscopy. It was therefore concluded that the ageing process proceeds via the initial production of aromatic ketones, which may then be further oxidized to carboxylic acids. In the presence of copper, these oxidation products are present in lower quantities, most of these oxidation products being combined with the copper present in the oil to give copper carboxylates. The behavior is described in terms of a complex autoxidation mechanism, in which copper acts as both an oxidizing and a reducing agent, depending on its oxidation state and, in particular, promotes elimination via the oxidation of intermediate alkyl radical species to carbocations.