175 resultados para SQL
Resumo:
El objetivo fue evaluar la intervención de las alertas en la prescripción de diclofenaco. Estudio observacional, comparativo, post intervención, de un antes después, en pacientes con prescripción de diclofenaco. Se evaluó la intervención de las alertas restrictivas antes y después de su implementación en los pacientes prescritos con diclofenaco y que tenían asociado un diagnóstico de riesgo cardiovascular según CIE 10 o eran mayores de 65 años. Un total de 315.135 transacciones con prescripción de diclofenaco, en 49.355 pacientes promedio mes. El 94,8% (298.674) de las transacciones fueron prescritas por médicos generales.
Resumo:
Se ha creado un grupo interdisciplinar de profesores de la Universidad de Valladolid de los Departamentos de Física de la Materia Condensada, Didáctica de las Ciencias Experimentales, Ingeniería Energética e Informática con el fin de desarrollar una plataforma telemática como soporte a la docencia universitaria para las materias troncales que imparten sus respectivos departamentos. El objetivo de este proyecto ha sido la optimización y ampliación de dos proyectos anteriores elaborados por los Departamentos de Física de la Materia Condensada e Informática bajo Internet, para ello, se ha necesitado rediseñar la base de datos existente, con este fin se ha trabajado en el gestor de la base de datos y del servidor web para acceder a la información contenida en la base de datos. Se ha creado una unidad didáctica sobre energía solar para ser introducida en el servidor desarrollado. Con estos objetivos se ha diseñado un nuevo servidor cuya dirección es: http://cervantes.eis.uva.es. Una de las principales mejoras conseguidas ha sido el desarrollo de un nuevo gestor de la base de datos, esto se ha debido a la necesidad de poder manejar e introducir datos desde cualquier ordenador conectado a Internet, sin necesidad de tener que hacerlo desde el servidor del departamento como sucedía hasta el momento. Esa conexión al gestor de la base de datos se realiza de una manera segura mediante SSL (Security Socket Layer). También se ha introducido un tablón de anuncios en el que tanto los profesores como los alumnos puedan introducir sus propios mensajes y ser respondidos por cualquier persona que acceda al sistema de consultas de la base de datos a través de Internet. Además se ha ampliado y mejorado la gestión y la estructura de los exámenes que los alumnos pueden realizar a través de Internet, así como las posibilidades para su utilización como instrumento de autorregulación del aprendizaje por parte de los alumnos. Otra mejora importante ha sido la construcción de un Conversor de Unidades cuya gestión va incorporada en la base de datos. Las necesidades de instalación son: sistema operativo Windows 2000 server, Internet Information server 5.0 y SQL Server 7. El material dsarrollado se encuentra en la web.
Resumo:
Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicación
Resumo:
SEXTANTE es un marco para el desarrollo de algoritmos dedicados al procesamiento de información geográficamente referenciada, que actualmente cuenta con más de doscientos algoritmos que son capaces de operar sobre datos vectoriales, alfanuméricos y raster. Por otra parte, GearScape es un sistema de información geográfico orientado al geoprocesamiento, que dispone de un lenguaje declarativo que permite el desarrollo de geoprocesos sin necesidad de herramientas de desarrollo complejas. Dicho lenguaje está basado en el estándar SQL y extendido mediante la norma OGC para el acceso a fenómenos simples. Al ser un lenguaje mucho más simple que los lenguajes de programación imperativos (java, .net, python, etc.) la creación de geoprocesos es también más simple, más fácil de documentar, menos propensa a bugs y además la ejecución es optimizada de manera automática mediante el uso de índices y otras técnicas. La posibilidad de describir cadenas de operaciones complejas tiene también valor a modo de documentación: es posible escribir todos los pasos para la resolución de un determinado problema y poder recuperarlo tiempo después, reutilizarlo fácilmente, comunicárselo a otra persona, etc. En definitiva, el lenguaje de geoprocesamiento de GearScape permite "hablar" de geoprocesos. La integración de SEXTANTE en GearScape tiene un doble objetivo. Por una parte se pretende proporcionar la posibilidad de usar cualquiera de los algoritmos con la interfaz habitual de SEXTANTE. Por la otra, se pretende añadir al lenguaje de geoprocesamiento de GearScape la posibilidad de utilizar algoritmos de SEXTANTE. De esta manera, cualquier problema que se resuelva mediante la utilización de varios de estos algoritmes puede ser descrito con el lenguaje de geoprocesamiento de GearScape. A las ventajas del lenguaje de GearScape para la definición de geoprocesos, se añade el abanico de geoprocesos disponible en SEXTANTE, por lo que el lenguaje de geoprocesamiento de GearScape nos permite "hablar" utilizando vocabulario de SEXTANTE
Resumo:
Una empresa destinada al sector de la informàtica vol crear un nou producte basat en PDA (Personal Digital Assistant), per tal d’oferir noves prestacions als clients actuals, així com poder ampliar la cartera de clients. El producte està destinat a clients de servei tècnic d’instal·lacions (gas, llum, aigua...), els quals tenen diferents tècnics que, basant-se en una ruta establerta, realitzen tasques de manteniment i reparació de les diferents instal·lacions dels clients. Utilitzant la tecnologia .NET amb l’entorn de desenvolupament Visual Studio 2005 i base de dades SQL Server 2005, s’ha creat una aplicació per a PDA que permeti la informatització de tots els processos de gestió de rutes per part dels tècnics
Resumo:
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB.
Resumo:
Mainframes, corporate and central servers are becoming information servers. The requirement for more powerful information servers is the best opportunity to exploit the potential of parallelism. ICL recognized the opportunity of the 'knowledge spectrum' namely to convert raw data into information and then into high grade knowledge. Parallel Processing and Data Management Its response to this and to the underlying search problems was to introduce the CAFS retrieval engine. The CAFS product demonstrates that it is possible to move functionality within an established architecture, introduce a different technology mix and exploit parallelism to achieve radically new levels of performance. CAFS also demonstrates the benefit of achieving this transparently behind existing interfaces. ICL is now working with Bull and Siemens to develop the information servers of the future by exploiting new technologies as available. The objective of the joint Esprit II European Declarative System project is to develop a smoothly scalable, highly parallel computer system, EDS. EDS will in the main be an SQL server and an information server. It will support the many data-intensive applications which the companies foresee; it will also support application-intensive and logic-intensive systems.
Resumo:
Background: Health care literature supports the development of accessible interventions that integrate behavioral economics, wearable devices, principles of evidence-based behavior change, and community support. However, there are limited real-world examples of large scale, population-based, member-driven reward platforms. Subsequently, a paucity of outcome data exists and health economic effects remain largely theoretical. To complicate matters, an emerging area of research is defining the role of Superusers, the small percentage of unusually engaged digital health participants who may influence other members. Objective: The objective of this preliminary study is to analyze descriptive data from GOODcoins, a self-guided, free-to-consumer engagement and rewards platform incentivizing walking, running and cycling. Registered members accessed the GOODcoins platform through PCs, tablets or mobile devices, and had the opportunity to sync wearables to track activity. Following registration, members were encouraged to join gamified group challenges and compare their progress with that of others. As members met challenge targets, they were rewarded with GOODcoins, which could be redeemed for planet- or people-friendly products. Methods: Outcome data were obtained from the GOODcoins custom SQL database. The reporting period was December 1, 2014 to May 1, 2015. Descriptive self-report data were analyzed using MySQL and MS Excel. Results: The study period includes data from 1298 users who were connected to an exercise tracking device. Females consisted of 52.6% (n=683) of the study population, 33.7% (n=438) were between the ages of 20-29, and 24.8% (n=322) were between the ages of 30-39. 77.5% (n=1006) of connected and active members met daily-recommended physical activity guidelines of 30 minutes, with a total daily average activity of 107 minutes (95% CI 90, 124). Of all connected and active users, 96.1% (n=1248) listed walking as their primary activity. For members who exchanged GOODcoins, the mean balance was 4,000 (95% CI 3850, 4150) at time of redemption, and 50.4% (n=61) of exchanges were for fitness or outdoor products, while 4.1% (n=5) were for food-related items. Participants were most likely to complete challenges when rewards were between 201-300 GOODcoins. Conclusions: The purpose of this study is to form a baseline for future research. Overall, results indicate that challenges and incentives may be effective for connected and active members, and may play a role in achieving daily-recommended activity guidelines. Registrants were typically younger, walking was the primary activity, and rewards were mainly exchanged for fitness or outdoor products. Remaining to be determined is whether members were already physically active at time of registration and are representative of healthy adherers, or were previously inactive and were incentivized to change their behavior. As challenges are gamified, there is an opportunity to investigate the role of superusers and healthy adherers, impacts on behavioral norms, and how cooperative games and incentives can be leveraged across stratified populations. Study limitations and future research agendas are discussed.
Resumo:
Syftet med projektet var att tillverka en webbaserad kartvisningstjänst för att visualisera geografiska och infrastrukturella förändringar över tiden. Detta genom att historiska och dagsaktuella kartor överlappas och presenteras som en bild.Applikationen utvecklades i ASP.NET med programspråket Visual Basic. Som databashanterare användes Microsoft SQL-server 2000. För bearbetning av kartmaterialet användes Arcview 8. Som utvecklingsmetod användes David Siegels modell för att konstruera webbplatser. Rapporten tar upp Ben Schniedermans principer för att skapa användarvänliga webbapplikationer.Examensarbetet genomfördes våren 2004 vid Högskolan Dalarna, campus Framtidsdalen, Borlänge.
Resumo:
Idag finns det många företag som erbjuder olika program/databaser som har till uppgift att lagraoch hantera data. Oracle är världens näst största mjukvaruföretag. Oracles databas genererar ungefär 75 % av deras inkomst.De senaste 40 åren har databashantering utvecklats från enkelt filsystem tillobjektrelationsdatabas, vilket har medfört att allt fler företag idag erbjuder verktyg som databasutvecklare kan arbeta med. Verktygen underlättar själva databashanteringen. Det är mångaföretag som erbjuder olika sorters verktyg och databas utvecklaren, eller själva databasföretaget,får svårt att skilja på verktygen. Utbudet av verktyg är så omfattande att det är näst intill omöjligtatt ha kännedom om alla.Syftet med denna uppsats är att undersöka vilket verktyg en Oracle-utvecklare bör använda sigav. Att jämföra olika SQL och PL/SQL verktyg, samt lämna en rekommendation om vilket/vilkaverktyg som är bäst att använda ur olika perspektiv. Vid jämförelsen laddade jag hem och testadede olika verktygen utifrån vissa kriterier. Jag kontaktade även fyra företag för att få svar på frågan utifrån företagens perspektiv. Tre av företagen svarade på mina enkäter, medan ett av företagen svarade muntligt på mina frågor via telefonen.Då jag genomförde denna studie kom jag fram till slutsatsen att alla verktyg i stort sett har samma grundfunktioner. Valet av verktyg styrs av hur många extra funktioner utvecklaren är villig betala för. Det är dock utvecklaren själv som måste avgöra vilket verktyg som passar just honom. Det verktyg som är ledande är Toad och detta verktyg passar bäst för experter. För enklare funktioner har det framkommit av enkäterna att SQL*Plus används.
Resumo:
The report analyses if some common problems can be avoided by using modern technology. As a reference system “Fartygsrapporteringssystemet” is used. It is an n-tier web application built with modern technology at time, 2003-2004. The aim is to examine whether ASP.Net MVC, Windows Communication Foundation, Workflow Foundation and SQL Server 2005 Service Broker can be used to create an n-tier web application which also communicate with other systems and facilitate automated testing. The report describes the construction of a prototype in which the presentation layer uses ASP.Net MVC to separate presentation and business logic. Communication with the business layer is done through the Windows Communication Foundation. Hard coded processes are broken out and dealt with by Workflow Foundation. Asynchronous communication with other systems is done by using Microsoft SQL Server 2005 Service Broker. The results of the analysis is that these techniques can be used to create a n-tier web application, but that ASP.Net MVC, which at present only available in a preview release, is not sufficiently developed yet.
Resumo:
Arbetet behandlar säkerhetstestning av webbapplikationer och CMS plattformen EPiServer. För att Know IT Dalarna ska kunna fortsätta leverera säkra webblösningar efterfrågar de en säkerhetsanalys över plattformen EPiServer men även över sina egenutvecklade applikationer. Syftet med arbetet var att höja säkerheten kring Know ITs webbaserade projekt och samtidigt göra utvecklarna mer medvetna om säkerheten vid utvecklingsfasen. Resultatet var att EPiServer som plattformen tillhandahåller en fullgod säkerhet. De direkta brister som identifierades var upp till antingen Know IT eller kunden att åtgärda och ansvaret lades på den som hade hand om driften av webbplatsen. Säkerhetstesterna som utfördes var bland annat tester emot åtkomsthantering, avlyssningsattacker, lösenordsattacker, SQL-injections och XSS-attacker.För att förenkla säkerhetstestningen skapades en checklista innehållandes steg för steg för att göra en grundläggande säkerhetstestning. Den innehöll även rekommendationer till Know IT Dalarna på områden som ska belysas och undersökas i framtiden. Checklistan kan användas av utvecklarna för att säkerställa att ett pågående projekt håller en bra nivå säkerhetsmässigt. Listan måste i framtiden uppdateras och hållas i fas med den ständiga tekniska utvecklingen som sker på området.
Resumo:
O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.
Resumo:
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.