970 resultados para Geographic information retrieval
Resumo:
Desde hace más de 5 años DIELMO 3D S.L. ha estado trabajando en el desarrollo de software para el procesado de datos LiDAR, usándolo internamente para la producción de Modelos Digitales del Terreno (MDT) en numerosos proyectos. Finalmente, con la ayuda de la CIT hemos decidido tomar la iniciativa de crear un nuevo software libre basado en gvSIG para el manejo de datos LiDAR. En primer lugar haremos una introducción a la tecnología LiDAR, comentando los fundamentos básicos, los datos originales que se obtienen después de un vuelo y las aplicaciones o productos finales que se pueden generar a partir de la tecnología LiDAR. Una vez familiarizados con este tipo de datos, mostraremos el uso del driver desarrollado por DIELMO para el acceso, visualización y análisis de datos LiDAR originales en formato LAS y BIN para grandes volúmenes de datos. Por último comentaremos las herramientas que se están desarrollando para realizar controles de calidad a los datos originales y generar diferentes productos finales a partir de los datos originales: Modelo Digital del Terreno (MDT), Modelo Digital de Superficie (MDS) e imagen de intensidades
Resumo:
Desde la aparición de Google Earth se ha desencadenado una proliferación de aplicaciones de “visores 3D” o globos virtuales facilitando a los usuarios la navegación y exploración de cualquier localización de la Tierra en formato 3D. A estas alturas, nadie puede negar la repercusión mediática de este tipo de aplicaciones y, sobretodo, el impacto diseminador de conceptos geográficos (capas, mapas, etc.) que ha tenido sobre la gran mayoría de usuarios, normalmente no especializados en el dominio geográfico. En el ámbito del software libre, a los originales World Wind (.NET) y Ossimplanet se han venido uniendo iniciativas en otras plataformas como Marble KDE, nuevas versiones de WordWind (Java SDK), a las que últimamente se están añadiendo iniciativas españolas dignas de consideración, como el Capaware canario y el módulo 3D de gvSIG. En este artículo se analiza el estado del desarrollo de estos proyectos, así como los estándares y formatos específicos que se están elaborando en el OGC para el ámbito específico de la información geográfica tridimensional (modelado de escenarios, objetos, terreno o cachés)
Resumo:
La Confederación Hidrográfica del Duero (CHDuero), organismo de cuenca dependiente del Ministerio de Medio Ambiente, y Medio Rural y Marino, tiene una voluntad política manifiesta por acercar a todos los actores implicados la gestión del agua. Para ello, y desde el año 2006, se ha estado desarrollando una plataforma SIG siguiendo los principios de la directiva INSPIRE [1] y utilizando componentes libres e interoperables para el desarrollo de la funcionalidad necesaria. No sólo se utilizan componentes de software libre que implementan de forma probada normas y especificaciones como las del Open Geospatial Consortium (OGC) [2] o la serie de normas ISO 19100 sino que también se siguen las recomendaciones de distintos grupos de trabajo relacionados con los SIG como los de la Infraestructura de Datos Espaciales de España (IDEE) [3] o los del Sistema de Información Europeo del Agua WISE [4]. Así, la plataforma SIG de la CHDuero, que surgió inicialmente para satisfacer las necesidades de la Oficina de Planificación Hidrológica se está consolidando como un punto común de acceso a datos dentro de la CHDuero. Se trata de una plataforma normalizada para el intercambio de información con Portugal que facilita la información y la participación pública, participa como nodo de la IDEE y sirve como eje de colaboración con la Comisión Europea y algunos Estados Miembros para el desarrollo e implementación del nodo del Sistema de Información Europeo del Agua (WISE)
Resumo:
Este artículo muestra cómo con bajo coste y riesgo se puede desarrollar un sistema de planificación de viaje multimodal, basado en un enfoque de código abierto y estándares ‘de facto’. Se ha desarrollado completamente una solución de código abierto para un sistema de información de transporte público puerta a puerta basado en estándares ‘de facto’. El cálculo de rutas se realiza mediante Graphserver, mientras que la cartografía se basa en OpenStreetMap. También se ha demostrado cómo exportar una base de datos real de horarios de transporte público como la del operador ETM (Empresa de Transporte Metropolitano de València) a la especificación de Google Transit, para permitir el cálculo de rutas, tanto desde nuestro prototipo como desde Google Transit
Resumo:
Conèixer una posició sota l'aigua és una tasca molt complexa que no estava del tot resolta. Ara, investigadors de la Universitat de Girona han trobat una solució al problema a partir de la interpretació d'imatges del fons del mar. Aquesta tècnica, a més, ha obert noves possibilitats a biòlegs i geòlegs que estudien els fons marins
Resumo:
Este artículo es una aproximación a los métodos utilizados para analizar, cuantificar y valorar los cambios en los usos y cubiertas del suelo en estos dos valles que forman parte del espacio natural protegido de la Alta Garrotxa. La dinámica vivida en este territorio es un claro ejemplo de los procesos acaecidos a lo largo del siglo XX en buena parte de las áreas de montaña mediterránea. Una dinámica caracterizada fundamentalmente por un incremento de la superficie forestal en detrimento del espacio agrario. Así mismo se proponen pautas metodológicas para su adecuada cartografía, así como para determinar las áreas potencialmente recuperables de espacio agrario con el objetivo de mantener la diversidad paisajística, biológica y el patrimonio cultural con la ayuda de los SIG y la Ecología del Paisaje
Estrategias de búsqueda y utilización de la información en trabajos académicos en educación superior
Resumo:
Los nuevos Planes de Estudio adaptados al Espacio Europeo de la Educación Superior ya están implantándose en nuestras universidades y esto ha supuesto plantearnos qué cambios debemos incorporar como docentes, para que nuestros estudiantes consigan las competencias, habilidades y destrezas necesarias para ser profesionales competentes en un futuro cercano
Resumo:
This class introduces basics of web mining and information retrieval including, for example, an introduction to the Vector Space Model and Text Mining. Guest Lecturer: Dr. Michael Granitzer Optional: Modeling the Internet and the Web: Probabilistic Methods and Algorithms, Pierre Baldi, Paolo Frasconi, Padhraic Smyth, Wiley, 2003 (Chapter 4, Text Analysis)
Resumo:
These slides support students in understanding how to respond to the challenge of: "I’ve been told not to use Google or Wikipedia to research my essay. What else is there?" The powerpoint guides students in how to identify high quality, up to date and relevant resources on the web that they can reliably draw upon for their academic assignments. The slides were created by the subject liaison librarian who supports the School of Electronics and Computer Science at the UNiversity of Southampton, Fiona Nichols.
Resumo:
Finding journal articles from full text sources such as IEEEXplore, ACM and LNCS (Lecture Noters in Computer Science)
Resumo:
Real-time geoparsing of social media streams (e.g. Twitter, YouTube, Instagram, Flickr, FourSquare) is providing a new 'virtual sensor' capability to end users such as emergency response agencies (e.g. Tsunami early warning centres, Civil protection authorities) and news agencies (e.g. Deutsche Welle, BBC News). Challenges in this area include scaling up natural language processing (NLP) and information retrieval (IR) approaches to handle real-time traffic volumes, reducing false positives, creating real-time infographic displays useful for effective decision support and providing support for trust and credibility analysis using geosemantics. I will present in this seminar on-going work by the IT Innovation Centre over the last 4 years (TRIDEC and REVEAL FP7 projects) in building such systems, and highlights our research towards improving trustworthy and credible of crisis map displays and real-time analytics for trending topics and influential social networks during major news worthy events.
Resumo:
Abstract Big data nowadays is a fashionable topic, independently of what people mean when they use this term. But being big is just a matter of volume, although there is no clear agreement in the size threshold. On the other hand, it is easy to capture large amounts of data using a brute force approach. So the real goal should not be big data but to ask ourselves, for a given problem, what is the right data and how much of it is needed. For some problems this would imply big data, but for the majority of the problems much less data will and is needed. In this talk we explore the trade-offs involved and the main problems that come with big data using the Web as case study: scalability, redundancy, bias, noise, spam, and privacy. Speaker Biography Ricardo Baeza-Yates Ricardo Baeza-Yates is VP of Research for Yahoo Labs leading teams in United States, Europe and Latin America since 2006 and based in Sunnyvale, California, since August 2014. During this time he has lead the labs in Barcelona and Santiago de Chile. Between 2008 and 2012 he also oversaw the Haifa lab. He is also part time Professor at the Dept. of Information and Communication Technologies of the Universitat Pompeu Fabra, in Barcelona, Spain. During 2005 he was an ICREA research professor at the same university. Until 2004 he was Professor and before founder and Director of the Center for Web Research at the Dept. of Computing Science of the University of Chile (in leave of absence until today). He obtained a Ph.D. in CS from the University of Waterloo, Canada, in 1989. Before he obtained two masters (M.Sc. CS & M.Eng. EE) and the electronics engineer degree from the University of Chile in Santiago. He is co-author of the best-seller Modern Information Retrieval textbook, published in 1999 by Addison-Wesley with a second enlarged edition in 2011, that won the ASIST 2012 Book of the Year award. He is also co-author of the 2nd edition of the Handbook of Algorithms and Data Structures, Addison-Wesley, 1991; and co-editor of Information Retrieval: Algorithms and Data Structures, Prentice-Hall, 1992, among more than 500 other publications. From 2002 to 2004 he was elected to the board of governors of the IEEE Computer Society and in 2012 he was elected for the ACM Council. He has received the Organization of American States award for young researchers in exact sciences (1993), the Graham Medal for innovation in computing given by the University of Waterloo to distinguished ex-alumni (2007), the CLEI Latin American distinction for contributions to CS in the region (2009), and the National Award of the Chilean Association of Engineers (2010), among other distinctions. In 2003 he was the first computer scientist to be elected to the Chilean Academy of Sciences and since 2010 is a founding member of the Chilean Academy of Engineering. In 2009 he was named ACM Fellow and in 2011 IEEE Fellow.
Resumo:
Establishing the pattern of crime is fundamental for the successful investigation ofinternational crimes (genocide, war crimes, and crimes against humanity). A patternof crime is the aggregate of multiple incidents that share common features related tothe victims, the perpetrators, and the modus operandi. Pattern evidence and analysishave been used successfully, mainly in the investigation of large-scale killings, destruction,and displacement; the use for sexual violence charges has been remarkablymore limited. There is a need to overcome this gap by setting proper methods of datacollection and analysis. At the level of evidence collection, under-reporting should beaddressed through victimization surveys or secondary analysis of data available fromdifferent sources. At the level of analysis, the available evidence needs to be subject toimpartial examination beyond the pre-conceptions of the conflict parties and advocacygroups, in compliance with scientific standards for quantitative, qualitative, andGIS (Geographic Information Systems)methods. Reviewing the different investigativeexperiences and jurisprudence will help to set the right methodology and contribute mostefficiently to putting an end to the impunity regarding sexual crimes.
Resumo:
El interés de este estudio de caso es avaluar la situación de los patrones de distribución y cobertura de los equipamientos de educación, cultura, recreación y deporte, de la UPZ El Rincón de la ciudad de Bogotá. Se describe y analiza con ayuda de un sistema de información geográfica la localización y accesibilidad a los equipamientos desde el sistema de transporte y las diferentes manzanas que componen la UPZ, bajo la mirada de la importancia de los equipamientos colectivos para el ordenamiento territorial de las ciudades. Siguiendo finalmente los estándares urbanísticos se establece el déficit de la UPZ en cuanto a estos equipamientos y una posible propuesta para intentar cubrirlo de manera óptima.
Resumo:
JASPA (Java Spatial) es una extensión espacial para bases de datos relacionales que dispongan de procedimientos almacenados en java. Se trata de un proyecto joven, pero que ya posee una funcionalidad muy similar a PostGIS. Recientemente han surgido nuevas extensiones espaciales, pero ninguna de ellas ofrece la misma funcionalidad que PostGIS o JASPA. En este artículo se describe la arquitectura del producto, sus principales funcionalidades y las mejoras realizadas desde la última versión, entre las que destaca la inclusión de reglas topológicas