975 resultados para Web Semantico semantic open data geoSPARQL
Resumo:
BACKGROUND: The neonatal and pediatric antimicrobial point prevalence survey (PPS) of the Antibiotic Resistance and Prescribing in European Children project (http://www.arpecproject.eu/) aims to standardize a method for surveillance of antimicrobial use in children and neonates admitted to the hospital within Europe. This article describes the audit criteria used and reports overall country-specific proportions of antimicrobial use. An analytical review presents methodologies on antimicrobial use.
METHODS: A 1-day PPS on antimicrobial use in hospitalized children was organized in September 2011, using a previously validated and standardized method. The survey included all inpatient pediatric and neonatal beds and identified all children receiving an antimicrobial treatment on the day of survey. Mandatory data were age, gender, (birth) weight, underlying diagnosis, antimicrobial agent, dose and indication for treatment. Data were entered through a web-based system for data-entry and reporting, based on the WebPPS program developed for the European Surveillance of Antimicrobial Consumption project.
RESULTS: There were 2760 and 1565 pediatric versus 1154 and 589 neonatal inpatients reported among 50 European (n = 14 countries) and 23 non-European hospitals (n = 9 countries), respectively. Overall, antibiotic pediatric and neonatal use was significantly higher in non-European (43.8%; 95% confidence interval [CI]: 41.3-46.3% and 39.4%; 95% CI: 35.5-43.4%) compared with that in European hospitals (35.4; 95% CI: 33.6-37.2% and 21.8%; 95% CI: 19.4-24.2%). Proportions of antibiotic use were highest in hematology/oncology wards (61.3%; 95% CI: 56.2-66.4%) and pediatric intensive care units (55.8%; 95% CI: 50.3-61.3%).
CONCLUSIONS: An Antibiotic Resistance and Prescribing in European Children standardized web-based method for a 1-day PPS was successfully developed and conducted in 73 hospitals worldwide. It offers a simple, feasible and sustainable way of data collection that can be used globally.
Resumo:
Abstract: In the mid-1990s when I worked for a telecommunications giant I struggled to gain access to basic geodemographic data. It cost hundreds of thousands of dollars at the time to simply purchase a tile of satellite imagery from Marconi, and it was often cheaper to create my own maps using a digitizer and A0 paper maps. Everything from granular administrative boundaries to right-of-ways to points of interest and geocoding capabilities were either unavailable for the places I was working in throughout Asia or very limited. The control of this data was either in a government’s census and statistical bureau or was created by a handful of forward thinking corporations. Twenty years on we find ourselves inundated with data (location and other) that we are challenged to amalgamate, and much of it still “dirty” in nature. Open data initiatives such as ODI give us great hope for how we might be able to share information together and capitalize not only in the crowdsourcing behavior but in the implications for positive usage for the environment and for the advancement of humanity. We are already gathering and amassing a great deal of data and insight through excellent citizen science participatory projects across the globe. In early 2015, I delivered a keynote at the Data Made Me Do It conference at UC Berkeley, and in the preceding year an invited talk at the inaugural QSymposium. In gathering research for these presentations, I began to ponder on the effect that social machines (in effect, autonomous data collection subjects and objects) might have on social behaviors. I focused on studying the problem of data from various veillance perspectives, with an emphasis on the shortcomings of uberveillance which included the potential for misinformation, misinterpretation, and information manipulation when context was entirely missing. As we build advanced systems that rely almost entirely on social machines, we need to ponder on the risks associated with following a purely technocratic approach where machines devoid of intelligence may one day dictate what humans do at the fundamental praxis level. What might be the fallout of uberveillance? Bio: Dr Katina Michael is a professor in the School of Computing and Information Technology at the University of Wollongong. She presently holds the position of Associate Dean – International in the Faculty of Engineering and Information Sciences. Katina is the IEEE Technology and Society Magazine editor-in-chief, and IEEE Consumer Electronics Magazine senior editor. Since 2008 she has been a board member of the Australian Privacy Foundation, and until recently was the Vice-Chair. Michael researches on the socio-ethical implications of emerging technologies with an emphasis on an all-hazards approach to national security. She has written and edited six books, guest edited numerous special issue journals on themes related to radio-frequency identification (RFID) tags, supply chain management, location-based services, innovation and surveillance/ uberveillance for Proceedings of the IEEE, Computer and IEEE Potentials. Prior to academia, Katina worked for Nortel Networks as a senior network engineer in Asia, and also in information systems for OTIS and Andersen Consulting. She holds cross-disciplinary qualifications in technology and law.
Resumo:
Automation technologies are widely acclaimed to have the potential to significantly reduce energy consumption and energy-related costs in buildings. However, despite the abundance of commercially available technologies, automation in domestic environments keep on meeting commercial failures. The main reason for this is the development process that is used to build the automation applications, which tend to focus more on technical aspects rather than on the needs and limitations of the users. An instance of this problem is the complex and poorly designed home automation front-ends that deter customers from investing in a home automation product. On the other hand, developing a usable and interactive interface is a complicated task for developers due to the multidisciplinary challenges that need to be identified and solved. In this context, the current research work investigates the different design problems associated with developing a home automation interface as well as the existing design solutions that are applied to these problems. The Qualitative Data Analysis approach was used for collecting data from research papers and the open coding process was used to cluster the findings. From the analysis of the data collected, requirements for designing the interface were derived. A home energy management functionality for a Web-based home automation front-end was developed as a proof-of-concept and a user evaluation was used to assess the usability of the interface. The results of the evaluation showed that this holistic approach to designing interfaces improved its usability which increases the chances of its commercial success.
Resumo:
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Biológicas, Programa de Pós-Graduação em Ecologia, 2015.
Resumo:
A quantidade e variedade de conteúdos multimédia actualmente disponíveis cons- tituem um desafio para os utilizadores dado que o espaço de procura e escolha de fontes e conteúdos excede o tempo e a capacidade de processamento dos utilizado- res. Este problema da selecção, em função do perfil do utilizador, de informação em grandes conjuntos heterogéneos de dados é complexo e requer ferramentas específicas. Os Sistemas de Recomendação surgem neste contexto e são capazes de sugerir ao utilizador itens que se coadunam com os seus gostos, interesses ou necessidades, i.e., o seu perfil, recorrendo a metodologias de inteligência artificial. O principal objectivo desta tese é demonstrar que é possível recomendar em tempo útil conteúdos multimédia a partir do perfil pessoal e social do utilizador, recorrendo exclusivamente a fontes públicas e heterogéneas de dados. Neste sen- tido, concebeu-se e desenvolveu-se um Sistema de Recomendação de conteúdos multimédia baseado no conteúdo, i.e., nas características dos itens, no historial e preferências pessoais e nas interacções sociais do utilizador. Os conteúdos mul- timédia recomendados, i.e., os itens sugeridos ao utilizador, são provenientes da estação televisiva britânica, British Broadcasting Corporation (BBC), e estão classificados de acordo com as categorias dos programas da BBC. O perfil do utilizador é construído levando em conta o historial, o contexto, as preferências pessoais e as actividades sociais. O YouTube é a fonte do histo- rial pessoal utilizada, permitindo simular a principal fonte deste tipo de dados - a Set-Top Box (STB). O historial do utilizador é constituído pelo conjunto de vídeos YouTube e programas da BBC vistos pelo utilizador. O conteúdo dos vídeos do YouTube está classificado segundo as categorias de vídeo do próprio YouTube, sendo efectuado o mapeamento para as categorias dos programas da BBC. A informação social, que é proveniente das redes sociais Facebook e Twit- ter, é recolhida através da plataforma Beancounter. As actividades sociais do utilizador obtidas são filtradas para extrair os filmes e séries que são, por sua vez, enriquecidos semanticamente através do recurso a repositórios abertos de dados interligados. Neste caso, os filmes e séries são classificados através dos géneros da IMDb e, posteriormente, mapeados para as categorias de programas da BBC. Por último, a informação do contexto e das preferências explícitas, através da classificação dos itens recomendados, do utilizador são também contempladas. O sistema desenvolvido efectua recomendações em tempo real baseado nas actividades das redes sociais Facebook e Twitter, no historial de vídeos Youtube e de programas da BBC vistos e preferências explícitas. Foram realizados testes com cinco utilizadores e o tempo médio de resposta do sistema para criar o conjunto inicial de recomendações foi 30 s. As recomendações personalizadas são geradas e actualizadas mediante pedido expresso do utilizador.
Resumo:
O projeto FOSTER – Facilitate Open Science Training for European Research é uma iniciativa que pretende apoiar diferentes intervenientes envolvidos no processo de comunicação científica, principalmente jovens investigadores. Este apoio visa a adoção do Acesso Aberto no contexto do Espaço Europeu da Investigação (EEI) e a conformidade com as políticas de Acesso Aberto e com as regras de participação do Horizonte 2020 (H2020). Para atingir este objetivo, o FOSTER, pretende focar-se na integração dos princípios e práticas de Acesso Aberto no atual sistema de investigação e contribuir para o desenvolvimento de sessões de formação nas instituições que realizam investigação científica de forma a manter níveis de conformidade satisfatórios com as políticas de Acesso Aberto no EEI e H2020. Para tal, tem desenvolvido um programa de formação sobre Acesso Aberto e dados abertos para consolidar as atividades de formação dirigidas a diversas comunidades e países do EEI. Este programa propõe incluir pacotes de formação que incluam aconselhamento, apoio técnico na utilização de sistemas e-learning, b-learning e de autoformação, disponibilização de materiais/conteúdos, sessões presenciais, principalmente formação de formadores, escolas de verão, seminários, etc.
Resumo:
The Araneidae is a speciose family including web-spinning spiders that are very abundant in various terrestrial ecosystems. Several studies demonstrate that changes in vegetation surrounding rivers, streams and brooks affect the associated araneofauna. The aim of this research was to compare differences found in diversity (abundance and richness), composition and phenology of Araneidae spiders sampled in different habitats in four riparian forest catchments in southern Brazil. Samples were taken from riparian forests in four rivers of Rio Grande do Sul State: Piratini, Camaquã, Sinos and Maquiné rivers, each in a different hydrographic basin. Samples were taken twice seasonally on each basin during two years, sampling the araneofauna of the tree-shrub strata with beating tray. Six transects were employed on each basin, two per habitat: edge with grassland, forest interior and river edge. Araneids totalled 20 genera and 65 species. Comparing riparian forests significant differences are found. Spider abundance differed among riparian forests as well as species richness. Overall, Piratini river riparian forest had the higher abundance and richness for Araneidae; the lower values were in Sinos river forest. The stronger degradation and fragmentation of the riparian forests of Sinos river probably influenced the results, with human disturbance gradients associated negatively to web building. We present data on the diversity of these spiders, which were very abundant in the riparian forest interior and very rich in species in the grassland/riparian forest edge. Species composition also differs among the studied habitats (the above plus river/riparian forest edge). For the most abundant species the phenological pattern across the seasons was also analysed.
Resumo:
Treball en què es crea una ontologia per simular totes les etapes d'una operació traumatològica, i usa aquesta ontologia per crear un prototip de wiki semàntica.
Resumo:
Aquest treball fa una revisió de les principals tecnologies implicades en la web semàntica i fa ús d'elles per obtenir una base de dades semàntica de coneixement dins del domini de les operacions quirúrgiques traumatològiques.
Resumo:
Creació d'una wiki semàntica per l'aprenentatge en l'àrea de la cirurgia traumatològica amb OntoWiki i Semantic MediaWiki.
Resumo:
La creació d'una ontologia partint de zero és una feina llarga i feixuga que pot simplificar-se si, partint d'una ontologia més general, es poden podar les parts que no formen part del domini de context. Aquesta memòria té una doble vessant: d'un costat l'estudi de l'estat de l'art de les ontologies (història, aplicacions, línies de treball, etc) i de l'altra l'anàlisi i disseny d'un plug-in en java per a Protégé que implementi l'algorisme de poda.
Resumo:
En els propers anys, la Web semàntica i les tecnologies que porta associades sembla que constituiran els eixos vertebradors d'una nova manera d'entendre la Xarxa. Aquesta deixarà de ser un mer repositori d'informació per a convertir-se en un ens capaç de generar coneixement per si sol, on màquines i usuaris treballin de manera col·laborativa. En aquest treball s'analitzarà l'evolució que ha sofert el mitjà i el significat d'una Web semàntica, passant per algunes de les tecnologies que hi donen suport. Per a entendre com es confereix significat a l'estructura d'una web, s'estudiaran de manera incremental els diferents llenguatges que permeten construir-la: XML, RDF i OWL. L'estructura conceptual que pren la informació, la representació de la qual és codificada amb els llenguatges mencionats anteriorment, es tractarà tant en un vessant teòric com en un de pràctic. Així, s'analitzarà el concepte i el procés de creació d'una ontologia i, mitjançant el programari Protégé, es crearà una taxonomia adequada en l'àmbit del turisme o lleure de muntanya. Un altre aspecte que s'analitzarà en el document és la nova generació de bases de dades que ha sorgit com a conseqüència del nou suport de la informació, on preval la relació que s'estableix entre les dades per sobre d'aquestes. Així doncs, s'estudiaran les característiques bàsiques de les bases de dades XML natives i es farà una breu introducció als llenguatges de modificació i consulta que suporten. Aquests aspectes s'aplicaran de manera pràctica sobre la base de dades eXist, mitjançant l'ús de les instàncies de l'ontologia creada. Finalment es desenvoluparà una aplicació web que permeti portar a la pràctica algunes de les tecnologies estudiades. El context en què se centrarà el cas pràctic serà el mateix que s'ha representat mitjançant l'ontologia i permetrà comprovar el funcionament d'una web explotada de manera semàntica.
Resumo:
Este trabajo muestra una ontología de carácter turístico que relaciona puntos de interés turístico con documentos digitales en Internet. El proyecto también incluye un prototipo de buscador para mostrar el funcionamiento de la ontología
Resumo:
Actualmente se pretende que los ordenadores puedan entender la semántica de la información que hay en la Web y que sea posible integrar diversas fuentes de información independientemente de la procedencia y formato de éstas, haciendo así una Web Semántica. Uno de los mayores problemas que tiene la Web Semántica es la falta de contenidos semánticos, principalmente debido a la falta de métodos de anotación automáticos existentes. Una forma de resolver este problema se basa en esconder tras aplicaciones que la gente usa diariamente, como los juegos on-line, estos procesos de generación de metadatos semánticos. El objetivo de este proyecto es estudiar diferentes iniciativas que tratan de enmascarar la generación de metadatos semánticos a través de los juegos on-line y el desarrollo de un prototipo de casual game para anotar semánticamente recursos. Se trata de un juego sencillo de pregunta-respuesta, donde dos usuarios concurrentes contestan a preguntas preestablecidas y definidas dentro de una ontología de dominio, obteniendo puntos en aquellas preguntas donde hayan dado la misma respuesta.
Resumo:
En este artículo se presenta la ontología OntPersonal, una ontología de personalización para la aplicación ITINER@, un sistema generador de rutas turísticas basado en información semántica. La ontología OntPersonal modela un conjunto de preferencias turísticas y restricciones de contexto asociadas al usuario final (turista), lo que se denomina su perfil. A partir de un juego de reglas SWRL se intentan inferir los puntos de interés (POI o visitables) -obtenidos de una ontología externa instanciada- más relevantes para cada perfil. Esta información, aunada a otras consideraciones, podría utilizarse por el sistema ITINER@ para construir rutas turísticas personalizadas. En este trabajo se presentan los resultados obtenidos al evaluar la ontología usando POI pertenecientes a la región de Esterri d'Àneu en Cataluña, España.