56 resultados para Engineering, Industrial|Artificial Intelligence
Resumo:
The control of the right application of medical protocols is a key issue in hospital environments. For the automated monitoring of medical protocols, we need a domain-independent language for their representation and a fully, or semi, autonomous system that understands the protocols and supervises their application. In this paper we describe a specification language and a multi-agent system architecture for monitoring medical protocols. We model medical services in hospital environments as specialized domain agents and interpret a medical protocol as a negotiation process between agents. A medical service can be involved in multiple medical protocols, and so specialized domain agents are independent of negotiation processes and autonomous system agents perform monitoring tasks. We present the detailed architecture of the system agents and of an important domain agent, the database broker agent, that is responsible of obtaining relevant information about the clinical history of patients. We also describe how we tackle the problems of privacy, integrity and authentication during the process of exchanging information between agents.
Resumo:
Random problem distributions have played a key role in the study and design of algorithms for constraint satisfaction and Boolean satisfiability, as well as in ourunderstanding of problem hardness, beyond standard worst-case complexity. We consider random problem distributions from a highly structured problem domain that generalizes the Quasigroup Completion problem (QCP) and Quasigroup with Holes (QWH), a widely used domain that captures the structure underlying a range of real-world applications. Our problem domain is also a generalization of the well-known Sudoku puz- zle: we consider Sudoku instances of arbitrary order, with the additional generalization that the block regions can have rectangular shape, in addition to the standard square shape. We evaluate the computational hardness of Generalized Sudoku instances, for different parameter settings. Our experimental hardness results show that we can generate instances that are considerably harder than QCP/QWH instances of the same size. More interestingly, we show the impact of different balancing strategies on problem hardness. We also provide insights into backbone variables in Generalized Sudoku instances and how they correlate to problem hardness.
Resumo:
Tractable cases of the binary CSP are mainly divided in two classes: constraint language restrictions and constraint graph restrictions. To better understand and identify the hardest binary CSPs, in this work we propose methods to increase their hardness by increasing the balance of both the constraint language and the constraint graph. The balance of a constraint is increased by maximizing the number of domain elements with the same number of occurrences. The balance of the graph is defined using the classical definition from graph the- ory. In this sense we present two graph models; a first graph model that increases the balance of a graph maximizing the number of vertices with the same degree, and a second one that additionally increases the girth of the graph, because a high girth implies a high treewidth, an important parameter for binary CSPs hardness. Our results show that our more balanced graph models and constraints result in harder instances when compared to typical random binary CSP instances, by several orders of magnitude. Also we detect, at least for sparse constraint graphs, a higher treewidth for our graph models.
Resumo:
In this paper we provide a new method to generate hard k-SAT instances. We incrementally construct a high girth bipartite incidence graph of the k-SAT instance. Having high girth assures high expansion for the graph, and high expansion implies high resolution width. We have extended this approach to generate hard n-ary CSP instances and we have also adapted this idea to increase the expansion of the system of linear equations used to generate XORSAT instances, being able to produce harder satisfiable instances than former generators.
Resumo:
Recently, edge matching puzzles, an NP-complete problem, have received, thanks to money-prized contests, considerable attention from wide audiences. We consider these competitions not only a challenge for SAT/CSP solving techniques but also as an opportunity to showcase the advances in the SAT/CSP community to a general audience. This paper studies the NP-complete problem of edge matching puzzles focusing on providing generation models of problem instances of variable hardness and on its resolution through the application of SAT and CSP techniques. From the generation side, we also identify the phase transition phenomena for each model. As solving methods, we employ both; SAT solvers through the translation to a SAT formula, and two ad-hoc CSP solvers we have developed, with different levels of consistency, employing several generic and specialized heuristics. Finally, we conducted an extensive experimental investigation to identify the hardest generation models and the best performing solving techniques.
Resumo:
Aquest projecte s'ha desenvolupat dins de l'àrea de visió per computadors, mitjançant el reconeixement d'un patró podem definir tres eixos que conformen un espai tridimensional on hem implementat un videojoc de combats entre robots a sobre d'un entorn real.
Resumo:
L'Hexadom és un joc de taula, de creació pròpia, inspirat en el dòmino tradicional, amb el que hi comparteix l'objectiu: jugar totes les fitxes (o hexàgons en el cas de l'Hexadom). Però hi ha una diferència substancial: la seva complexitat; ja que a diferència del joc original -on s'uneixen els extrems de dues fitxes que tinguin el mateix número- a l'Hexadom s'han d'unir hexàgons entre si, com a mínim per dos dels seus costats, mantenint la coherència entre els colors.
Resumo:
L'objectiu principal d'aquest projecte és dissenyar un algorisme de hashing que ens permeti, donat un conjunt d'hiperplans separadors, reduïr-ne el nombre, minimitzant la pèrdua d'eficiència en la classificació.
Resumo:
El presente documento tiene como objetivo analizar los riesgos a los que se ven sometidos los trabajadores de un pequeño taller mecánico. Para ello se planificó una evaluación de riesgos ergonómica la cual se ejecutó dentro de unos plazos marcados.El análisis está basado en la detección de las situaciones de riesgo mediante la observación in-situ del desarrollo del trabajo. Con esa finalidad se realizaron dos visitas al taller. La primera de ellas, tenía como objetivo detectar aquellas tareas que su ejecución representaba un riesgo para la salud del trabajador. Una vez detectadas las tareas, y previamente a la segunda visita, se realizó un pequeño estudio para determinar qué métodos ergonómicos se emplearían para realizar el estudio, conociendo de esa manera, que datos serían necesarios recoger al realizar una segunda visita. Seguidamente, se realizó una segunda visita al taller para realizar la observación de las tareas concretada previamente, y la medición de los datos.Finalmente, se procedió a procesar toda la información siguiendo las instrucciones pautadas por los métodos ergonómicos, comparando los resultados obtenidos con los niveles de riesgo admisibles, para extraer unas conclusiones del estudio, las cuales definían las condiciones laborales en las que se encontraba el trabajador. Como muchas de ellas, eran prácticamente inevitables para la ejecución de la tarea, se estudiaron una serie de medidas preventivas para reducir el nivel de riesgo. Una vez analizadas, fueron explicadas a los trabajadores mediante una pequeña formación con la finalidad de que las condiciones de trabajo mejoraran.
Resumo:
Des dels inicis dels ordinadors com a màquines programables, l’home ha intentat dotar-los de certa intel•ligència per tal de pensar o raonar el més semblant possible als humans. Un d’aquests intents ha sigut fer que la màquina sigui capaç de pensar de tal manera que estudiï jugades i guanyi partides d’escacs. En l’actualitat amb els actuals sistemes multi tasca, orientat a objectes i accés a memòria i gràcies al potent hardware del que disposem, comptem amb una gran varietat de programes que es dediquen a jugar a escacs. Però no hi ha només programes petits, hi ha fins i tot màquines senceres dedicades a calcular i estudiar jugades per tal de guanyar als millors jugadors del món. L’objectiu del meu treball és dur a terme un estudi i implementació d’un d’aquests programes, per això es divideix en dues parts. La part teòrica o de l’estudi, consta d’un estudi dels sistemes d’intel•ligència artificial que es dediquen a jugar a escacs, estudi i cerca d’una funció d’avaluació vàlida i estudi dels algorismes de cerca. La part pràctica del treball es basa en la implementació d’un sistema intel•ligent capaç de jugar a escacs amb certa lògica. Aquesta implementació es porta a terme amb l’ajuda de les llibreries SDL, utilitzant l’algorisme minimax amb poda alfa-beta i codi c++. Com a conclusió del projecte m’agradaria remarcar que l’estudi realitzat m’ha deixat veure que crear un joc d’escacs no era tan fàcil com jo pensava però m’ha aportat la satisfacció d’aplicar tot el que he après durant la carrera i de descobrir moltes altres coses noves.