6 resultados para tuned filters
em Universitat de Girona, Spain
Resumo:
This paper proposes a pose-based algorithm to solve the full SLAM problem for an autonomous underwater vehicle (AUV), navigating in an unknown and possibly unstructured environment. The technique incorporate probabilistic scan matching with range scans gathered from a mechanical scanning imaging sonar (MSIS) and the robot dead-reckoning displacements estimated from a Doppler velocity log (DVL) and a motion reference unit (MRU). The proposed method utilizes two extended Kalman filters (EKF). The first, estimates the local path travelled by the robot while grabbing the scan as well as its uncertainty and provides position estimates for correcting the distortions that the vehicle motion produces in the acoustic images. The second is an augment state EKF that estimates and keeps the registered scans poses. The raw data from the sensors are processed and fused in-line. No priory structural information or initial pose are considered. The algorithm has been tested on an AUV guided along a 600 m path within a marina environment, showing the viability of the proposed approach
Resumo:
A long development time is needed from the design to the implementation of an AUV. During the first steps, simulation plays an important role, since it allows for the development of preliminary versions of the control system to be integrated. Once the robot is ready, the control systems are implemented, tuned and tested. The use of a real-time simulator can help closing the gap between off-line simulation and real testing using the already implemented robot. When properly interfaced with the robot hardware, a real-time graphical simulation with a "hardware in the loop" configuration, can allow for the testing of the implemented control system running in the actual robot hardware. Hence, the development time is drastically reduced. These paper overviews the field of graphical simulators used for AUV development proposing a classification. It also presents NEPTUNE, a multi-vehicle, real-time, graphical simulator based on OpenGL that allows hardware in the loop simulations
Resumo:
Expert supervision systems are software applications specially designed to automate process monitoring. The goal is to reduce the dependency on human operators to assure the correct operation of a process including faulty situations. Construction of this kind of application involves an important task of design and development in order to represent and to manipulate process data and behaviour at different degrees of abstraction for interfacing with data acquisition systems connected to the process. This is an open problem that becomes more complex with the number of variables, parameters and relations to account for the complexity of the process. Multiple specialised modules tuned to solve simpler tasks that operate under a co-ordination provide a solution. A modular architecture based on concepts of software agents, taking advantage of the integration of diverse knowledge-based techniques, is proposed for this purpose. The components (software agents, communication mechanisms and perception/action mechanisms) are based on ICa (Intelligent Control architecture), software middleware supporting the build-up of applications with software agent features
Resumo:
We report here a new empirical density functional that is constructed based on the performance of OPBE and PBE for spin states and SN 2 reaction barriers and how these are affected by different regions of the reduced gradient expansion. In a previous study [Swart, Sol̀, and Bickelhaupt, J. Comput. Methods Sci. Eng. 9, 69 (2009)] we already reported how, by switching between OPBE and PBE, one could obtain both the good performance of OPBE for spin states and reaction barriers and that of PBE for weak interactions within one and the same (SSB-sw) functional. Here we fine tuned this functional and include a portion of the KT functional and Grimme's dispersion correction to account for π- π stacking. Our new SSB-D functional is found to be a clear improvement and functions very well for biological applications (hydrogen bonding, π -π stacking, spin-state splittings, accuracy of geometries, reaction barriers)
Resumo:
When publishing information on the web, one expects it to reach all the people that could be interested in. This is mainly achieved with general purpose indexing and search engines like Google which is the most used today. In the particular case of geographic information (GI) domain, exposing content to mainstream search engines is a complex task that needs specific actions. In many occasions it is convenient to provide a web site with a specially tailored search engine. Such is the case for on-line dictionaries (wikipedia, wordreference), stores (amazon, ebay), and generally all those holding thematic databases. Due to proliferation of these engines, A9.com proposed a standard interface called OpenSearch, used by modern web browsers to manage custom search engines. Geographic information can also benefit from the use of specific search engines. We can distinguish between two main approaches in GI retrieval information efforts: Classical OGC standardization on one hand (CSW, WFS filters), which are very complex for the mainstream user, and on the other hand the neogeographer’s approach, usually in the form of specific APIs lacking a common query interface and standard geographic formats. A draft ‘geo’ extension for OpenSearch has been proposed. It adds geographic filtering for queries and recommends a set of simple standard response geographic formats, such as KML, Atom and GeoRSS. This proposal enables standardization while keeping simplicity, thus covering a wide range of use cases, in both OGC and the neogeography paradigms. In this article we will analyze the OpenSearch geo extension in detail and its use cases, demonstrating its applicability to both the SDI and the geoweb. Open source implementations will be presented as well
Resumo:
Aquesta tesi es basa en el programa de reintroducció de la llúdriga eurasiàtica (Lutra lutra) a les conques dels rius Muga i Fluvià (Catalunya) durant la segona meitat dels 1990s. Els objectius de la tesi foren demostrar la viabilitat de la reintroducció, demostrar l'èxit de la mateixa, estudiar aspectes ecològics i etològics de l'espècie, aprofitant l'oportunitat única de gaudir d'una població "de disseny" i determinar les probabilitats de supervivència de la població a llarg termini. La reintroducció de la llúdriga a les conques dels rius Muga i Fluvià va reeixir, doncs l'àrea geogràfica ocupada efectivament es va incrementar fins a un 64% d'estacions positives a l'hivern 2001-02. La troballa de tres exemplars adults nascuts a l'àrea de reintroducció és una altra prova que valida l'èxit del programa. La densitat d'exemplars calculada a través dels censos visuals ha resultat baixa (0.04-0.11 llúdrigues/km), però s'aproxima al que hom pot esperar en els primers estadis d'una població reintroduïda, encara poc nombrosa però distribuïda en una gran àrea. La mortalitat post-alliberament va ser del 22% un any després de l'alliberament, similar o inferior a la d'altres programes de reintroducció de llúdrigues reeixits. La mortalitat va ser deguda principalment a atropellaments (56%). El patró d'activitat de les llúdrigues reintroduïdes va esdevenir principalment nocturn i crepuscular, amb una escassa activitat diürna. Les seves àrees vitals van ser del mateix ordre (34,2 km) que les calculades en d'altres estudis realitzats a Europa. La longitud mitjana de riu recorreguda per una llúdriga durant 24 hores va ser de 4,2 km per les femelles i 7,6 km pels mascles. Durant el període de radioseguiment dues femelles van criar i els seus moviments van poder ser estudiats amb deteniment. La resposta de la nova població de llúdrigues a les fluctuacions estacionals en la disponibilitat d'aigua, habitual a les regions mediterrànies, va consistir en la concentració en una àrea menor durant el període de sequera estival, a causa de l'increment de trams secs, inhabitables per la llúdriga per la manca d'aliment, fet que va provocar expansions i contraccions periòdiques en l'àrea de distribució. La persistència a llarg termini de la població reintroduïda va ser estudiada mitjançant una Anàlisi de Viabilitat Poblacional (PVA). El resultat va ser un baix risc d'extinció de la població en els propers 100 anys i la majoria dels escenaris simulats (65%) van assolir el criteri d'un mínim de 90% de probabilitat de supervivència. Del model poblacional construït es dedueix que un punt clau per assegurar la viabilitat de la població reintroduïda és la reducció de la mortalitat accidental. A l'àrea d'estudi, els atropellaments causen més del 50% de la mortalitat i aquesta pot ser reduïda mitjançant la construcció de passos de fauna, el tancament lateral d'alguns trams de carretera perillosos i el control de la velocitat en algunes vies. El projecte de reintroducció ha posat a punt un protocol per a la captura, maneig i alliberament de llúdrigues salvatges, que pot contenir informació útil per a programes similars. També ha suposat una oportunitat única d'estudiar una població dissenyada artificialment i poder comparar diversos mètodes per estimar la distribució i la densitat de poblacions de llúdrigues. Per últim, la reintroducció portada a terme a les conques dels rius Muga i Fluvià ha aconseguit crear una nova població de llúdrigues, que persisteix en el temps, que es reprodueix regularment i que es dispersa progressivament, fins i tot a noves conques fluvials.