964 resultados para Data exchange formats
Resumo:
OBJECTIVE: Quality assurance (QA) in clinical trials is essential to ensure treatment is safely and effectively delivered. As QA requirements have increased in complexity in parallel with evolution of radiation therapy (RT) delivery, a need to facilitate digital data exchange emerged. Our objective is to present the platform developed for the integration and standardization of QART activities across all EORTC trials involving RT. METHODS: The following essential requirements were identified: secure and easy access without on-site software installation; integration within the existing EORTC clinical remote data capture system; and the ability to both customize the platform to specific studies and adapt to future needs. After retrospective testing within several clinical trials, the platform was introduced in phases to participating sites and QART study reviewers. RESULTS: The resulting QA platform, integrating RT analysis software installed at EORTC Headquarters, permits timely, secure, and fully digital central DICOM-RT based data review. Participating sites submit data through a standard secure upload webpage. Supplemental information is submitted in parallel through web-based forms. An internal quality check by the QART office verifies data consistency, formatting, and anonymization. QART reviewers have remote access through a terminal server. Reviewers evaluate submissions for protocol compliance through an online evaluation matrix. Comments are collected by the coordinating centre and institutions are informed of the results. CONCLUSIONS: This web-based central review platform facilitates rapid, extensive, and prospective QART review. This reduces the risk that trial outcomes are compromised through inadequate radiotherapy and facilitates correlation of results with clinical outcomes.
Resumo:
Aquest document detalla, desglossant la informació en diferents capítols, les tasques que s'han fet per a construir un sistema d'informació geogràfica (SIG) de carreteres emprant el producte Geomedia Professional 5.2 d'Intergraph: què és un SIG, per a què serveix, quins usos pot tenir i què el diferencia d'altres productes semblants com ara un programari de disseny assistit per ordinador (CAD) o un sistema de teledetecció, nocions de cartografia, formats d'intercanvi d'informació geogràfica, etc.
Resumo:
Al llarg d'aquest treball es desenvolupa un sistema de micropagament basat en un model client - servidor en què el procés d'intercanvi de dades no necessita ser validat en temps real. El client té una cartera on guarda les monedes de què disposa per a fer les compres, i el servidor demana les monedes abans de fer la transferència del producte adquirit; aquestes monedes són guardades pel servidor i al final del dia es fa la conversió a diners.
Resumo:
A causa de l'increment del nombre de consumidors de dades geogràfiques, sobretot de dispositius mòbils, els sistemes d'informació geogràfica es troben davant el repte de reduir el coll d'ampolla que suposa l'arquitectura client-servidor clàssica. Una de les solucions a aquest problema és la translació de part de la intel·ligència al node client, així com la creació de xarxes descentralitzades (peer to peer),L'objectiu d'aquesta recerca és demostrar la viabilitat d'una infraestructura client mòbil-servidor, on el client no és únicament un consumidor més, si no que es torna un node intel·ligent.Per fer aquest estudi s'ha desenvolupat una aplicació pel sistema operatiu Android que consumeix dades d'OpenStreetMap. Aquesta aplicació utilitza tècniques de tessel·lat, catching i descàrrega de dades en background segons la posició de l'usuari, per facilitar el consum i reduir el flux de dades intercanviades entre el client i el servidor. També s'ha creat un servei web intern al dispositiu mòbil per a la creació de xarxes peer to peer, les quals permetin un intercanvi de dades entre els terminals mòbils. En aquest treball s'ha demostrat la viabilitat de la infraestructura a través del impacte de l'ús de les tècniques comentades anteriorment sobre el dispositiu client. Per mesurar l'impacte s'ha tingut en compte la càrrega de la CPU (la qual repercuteix al consum de la bateria) i el temps de resposta del sistema. Els resultats de les proves realitzades indiquen que aquestes tècniques redueixen el temps de cerca de punts d'interès d'una manera dràstica, però que també tenen un alt impacte a la CPU i en el temps de càrrega, sobretot en dispositius amb menys capacitats.
Resumo:
Roughly fifteen years ago, the Church of Jesus Christ of Latter-day Saints published a new proposed standard file format. They call it GEDCOM. It was designed to allow different genealogy programs to exchange data.Five years later, in may 2000, appeared the GENTECH Data Modeling Project, with the support of the Federation of Genealogical Societies (FGS) and other American genealogical societies. They attempted to define a genealogical logic data model to facilitate data exchange between different genealogical programs. Although genealogists deal with an enormous variety of data sources, one of the central concepts of this data model was that all genealogical data could be broken down into a series of short, formal genealogical statements. It was something more versatile than only export/import data records on a predefined fields. This project was finally absorbed in 2004 by the National Genealogical Society (NGS).Despite being a genealogical reference in many applications, these models have serious drawbacks to adapt to different cultural and social environments. At the present time we have no formal proposal for a recognized standard to represent the family domain.Here we propose an alternative conceptual model, largely inherited from aforementioned models. The design is intended to overcome their limitations. However, its major innovation lies in applying the ontological paradigm when modeling statements and entities.
Resumo:
A population register is an inventory of residents within a country, with their characteristics (date of birth, sex, marital status, etc.) and other socio-economic data, such as occupation or education. However, data on population are also stored in numerous other public registers such as tax, land, building and housing, military, foreigners, vehicles, etc. Altogether they contain vast amounts of personal and sensitive information. Access to public information is granted by law in many countries, but this transparency is generally subject to tensions with data protection laws. This paper proposes a framework to analyze data access (or protection) requirements, as well as a model of metadata for data exchange.
Resumo:
In June 2006, the Swiss Parliament made two important decisions with regards to public registers' governance and individuals' identification. It adopted a new law on the harmonisation of population registers in order to simplify statistical data collection and data exchange from around 4'000 decentralized registers, and it also approved the introduction of a Unique Person Identifier (UPI). The law is rather vague about the implementation of this harmonisation and even though many projects are currently being undertaken in this domain, most of them are quite technical. We believe there is a need for analysis tools and therefore we propose a conceptual framework based on three pillars (Privacy, Identity and Governance) to analyse the requirements in terms of data management for population registers.
Resumo:
Volumes of data used in science and industry are growing rapidly. When researchers face the challenge of analyzing them, their format is often the first obstacle. Lack of standardized ways of exploring different data layouts requires an effort each time to solve the problem from scratch. Possibility to access data in a rich, uniform manner, e.g. using Structured Query Language (SQL) would offer expressiveness and user-friendliness. Comma-separated values (CSV) are one of the most common data storage formats. Despite its simplicity, with growing file size handling it becomes non-trivial. Importing CSVs into existing databases is time-consuming and troublesome, or even impossible if its horizontal dimension reaches thousands of columns. Most databases are optimized for handling large number of rows rather than columns, therefore, performance for datasets with non-typical layouts is often unacceptable. Other challenges include schema creation, updates and repeated data imports. To address the above-mentioned problems, I present a system for accessing very large CSV-based datasets by means of SQL. It's characterized by: "no copy" approach - data stay mostly in the CSV files; "zero configuration" - no need to specify database schema; written in C++, with boost [1], SQLite [2] and Qt [3], doesn't require installation and has very small size; query rewriting, dynamic creation of indices for appropriate columns and static data retrieval directly from CSV files ensure efficient plan execution; effortless support for millions of columns; due to per-value typing, using mixed text/numbers data is easy; very simple network protocol provides efficient interface for MATLAB and reduces implementation time for other languages. The software is available as freeware along with educational videos on its website [4]. It doesn't need any prerequisites to run, as all of the libraries are included in the distribution package. I test it against existing database solutions using a battery of benchmarks and discuss the results.
Resumo:
La Universitat de Vic disposa, entre altres equips, d’una cèl·lula flexible de fabricació, del fabricant Festo, que simula un procés de formació de palets amb els productes que es disposen en un magatzem intermedi. Aquesta cèl·lula està composta de quatre estacions de muntatge diferenciades (càrrega de palets, càrrega de plaques, magatzem intermedi i transport). Cada una disposa d'un PLC SIEMENS S7-300 per la seva automatització, i tots aquests es troben interconnectats amb una xarxa industrial Profibus. L'objectiu d'aquest projecte és implantar el sistema SCADA Vijeo Citect pel control i supervisió de l'estació magatzem d'aquesta cèl·lula flexible de fabricació, establint també un intercanvi de dades entre l'SCADA i el Microsoft Access, per poder ser utilitzat per la docència. Aquest projecte s'ha desenvolupat en cinc fases diferents: 1. La primera fase s'ha dedicat a l'automatització pròpiament de l'estació magatzem a partir de l'autòmat programable Siemens S7-300 i complint amb les necessitats plantejades. 2. En la segona fase s'ha programat i establert la comunicació per l'intercanvi de dades (lectura i escriptura) entre el sistema SCADA Vijeo Citect i la base de dades de Microsoft Access. 3. En la tercera fase s'ha elaborat i programat l'entorn gràfic de supervisió i control del procés a partir del sistema SCADA Vijeo Citect. 4. En la quarta fase s'ha instal·lat un OPC Server en el PC i s'ha establert la comunicació entre el PLC i el sistema SCADA. 5. Finalment s'ha anat revisant i depurant les diferents programacions i comunicacions per tal de que el sistema funcioni com a un conjunt.
Resumo:
Tämä diplomityö käsittelee kahden sotilaallisen koalition yhteentoimivuuden haasteita ja toteutusta kaupallisintyökaluin. Työ pohjautuu kahteen todelliseen, palvelusuuntautunutta arkkitehtuurisuunnittelua (SOA) hyödyntäneeseen integraatioprojektiin jotka on toteutettu Suomen IBM:n Palveluyksikössä vuosina 2006 - 2007. Työn tavoitteena on ollut tutkia sotilaallisten koalitioiden järjestelmä - ja tiedonvaihtoyhteentoimivuuden menetelmiä, näkökulmia ja teknistä toteutusta kaupallisin ohjelmistotuottein ja yhteistä tietomallia käyttäen. Lisäksi esitetään puolustustoimialan erityispiirteet tietojärjestelmätoimittajien ohjelmistokehitys - prosesseihin liittyen. Tätä varten tutkittiin koalitioiden käyttöön tarkoitettuja olemassa olevia ohjelmistoarkkitehtuureja ja yhteentoimivuusmalleja sekä sovitettiin niitä SOA - arkkitehtuuriajatteluun. Työn teoreettisena pohjana käytettiin organisatorisen ja teknisen yhteentoimivuuden kuvaavaa Layers of Coalition Interoperability (LCI) - mallia, minkä jälkeen mallin teknistä osiota käytettiin pohjana SOA - palveluihin perustuvan esimerkkijärjestelmän kehittämiseen kahden kuvitteellisen koalition tiedonvaihtoa varten. Työn keskeisinä tuloksina on syntynyt suunnitelma koalitioiden taustajärjestelmien yhdistämisestä dynaamisten SOA- palveluiden avulla yhteiseen JC3IEDM - tietomalliin. Tämä tietomalli vuorostaan antaa mahdollisuuden järjestelmän laajentamiseen esimerkiksi avustusjärjestöjen, poliisivoimien ja terveydenhuollon organisaatioiden tarpeisiin.
Resumo:
Työn tavoitteena on tehdä pohjatutkimus tarjoustoiminnan kehittämiseksi Larox Oyj:ssä. Työssä hahmotetaan haastatteluiden avulla tämänhetkiset ongelma-alueet tarjoustoiminnassa ja tiedonhallinnassa. Nykyisin suurimpina kehityshaasteina ovat rutiinityön manuaalinen hallinta, tiedon hankala saatavuus ja selkeiden yhteisten pelisääntöjen puuttuminen tarjoustoiminnassa. Näihin haasteisiin pyritään löytämään ratkaisuvaihtoehtoja. Työ sisältää teoriaosan, jossa käydään läpi projektin ominaispiirteitä, tarjoustoiminnan osuutta projektiliiketoiminnassa, elinkaarenaikaisen tiedonhallinnan keinoja sekä massaräätälöinnin toimintaperiaatteita. Tarjoustoimintaa pyritään kehittämään käsitellyn teorian, benchmark-vierailuilta saatujen ideoiden sekä haastatteluissa tulleiden toiveiden pohjalta. Tuloksena saadaan kehitysideat pitkäjänteiseen kehitystyöhön sekä nopeasti toteutettaviin toimenpiteisiin. Keskeinen kehitysidea on tarjouskonfiguraattorin kehitystyön aloittaminen. Sen avulla pyritään vähentämään tarjousinsinöörien työtaakkaa. Silloin tarjousinsinööreille jää aikaa toteuttaa osaamistaan haastavampien ja suurempien tarjouksien tekemisessä. Tuloksena on saatu neliportainen kehityspolku, jota kulkemalla päästään kohti hahmotettua tavoitetilaa. Työn tuloksia käytetään hyväksi aloitettaessa konfiguraattorin kehitys Laroxilla sekä kehitettäessä koko tarjoustoimintaa ja elinkaarenaikaista tiedonhallintaa yrityksessä.
Resumo:
Tässä työssä on tarkasteltu kokoonpano-osien valmistajan näkökulmasta eri keinoja tehostaa tilaus-toimitusketjua sekä mahdollisuuksia parantaa samalla omaa tuotannonohjausta ja suunnittelua. Kysynnän heilahteluihin on pystyttävä varautumaan koko ketjun tasolla, jotta suurilta piiskavaikutuksilta voitaisiin välttyä sekä taattaisiin koko ketjun tehokas toiminta. Piiskavaikutus korostuu erityisesti ketjun alapäässä toimivaan yritykseen. Yritykset eivät kilpaile enää pelkästään keskenään. Kilpailu tapahtuu yhä enemmän ja enemmän myös kokonaisten arvoketjujen välillä. Arvoketjujen toimivuuden pohjana on tehokas informaationvaihto sekä yhteistyö informaation tehokkaaseen hyödyntämiseen. Käytännön tasolla arvoketjun logistista tehokkuutta voidaan lisätä informaation vaihdon lisäämisellä siirtymällä sähköisen tiedon siirtoon (EDI). Tuotannonsuunnittelun tehostamiseksi ja varastoihin sidottujen pääomien vapauttamiseksi on siirrytty toimittajan hallinnoiman varastoinnin (VMI) käyttöön. Kysynnän ennustamisella pyritään tasaamaan kysynnän heilahteluja sekä helpottamaan resurssien varaamista ja raaka-aineiden tilauksia. Näillä toimilla on pystytty tehostamaan tilausten käsittelyä sekä tuotannonohjausta. Lisäksi läpinäkyvyyden lisääntyminen on sitouttanut kahden arvoketjussa peräkkäin toimivan yrityksen toimintaa.
Resumo:
Työssä tutkittiin IFC (Industrial Foundation Classes)-tietomallin mukaisen tiedoston jäsentämistä, tiedon jatkoprosessointia ja tiedonsiirtoa sovellusten välillä. Tutkittiin, mitä vaihtoehtoja tiedon siirron toteuttamiseksi ohjelmallisesti on ja mihin suuntaan tiedon siirtäminen on menossa tulevaisuudessa. Soveltavassa osassa toteutettiin IFC-standardin mukaisen ISO10303-tiedoston (Osa 21) jäsentäminen ja tulkitseminen XML-muotoon. Sovelluksessa jäsennetään ja tulkitaan CAD-ohjelmistolla tehty IFC-tiedosto C# -ohjelmointikielellä ja tallennetaan tieto XML-tietokantaan kustannuslaskentaohjelmiston luettavaksi.
Resumo:
Following protection measures implemented since the 1970s, large carnivores are currently increasing in number and returning to areas from which they were absent for decades or even centuries. Monitoring programmes for these species rely extensively on non-invasive sampling and genotyping. However, attempts to connect results of such studies at larger spatial or temporal scales often suffer from the incompatibility of genetic markers implemented by researchers in different laboratories. This is particularly critical for long-distance dispersers, revealing the need for harmonized monitoring schemes that would enable the understanding of gene flow and dispersal dynamics. Based on a review of genetic studies on grey wolves Canis lupus from Europe, we provide an overview of the genetic markers currently in use, and identify opportunities and hurdles for studies based on continent-scale datasets. Our results highlight an urgent need for harmonization of methods to enable transnational research based on data that have already been collected, and to allow these data to be linked to material collected in the future. We suggest timely standardization of newly developed genotyping approaches, and propose that action is directed towards the establishment of shared single nucleotide polymorphism panels, next-generation sequencing of microsatellites, a common reference sample collection and an online database for data exchange. Enhanced cooperation among genetic researchers dealing with large carnivores in consortia would facilitate streamlining of methods, their faster and wider adoption, and production of results at the large spatial scales that ultimately matter for the conservation of these charismatic species.
Resumo:
Open educational resources (OER) promise increased access, participation, quality, and relevance, in addition to cost reduction. These seemingly fantastic promises are based on the supposition that educators and learners will discover existing resources, improve them, and share the results, resulting in a virtuous cycle of improvement and re-use. By anecdotal metrics, existing web scale search is not working for OER. This situation impairs the cycle underlying the promise of OER, endangering long term growth and sustainability. While the scope of the problem is vast, targeted improvements in areas of curation, indexing, and data exchange can improve the situation, and create opportunities for further scale. I explore the way the system is currently inadequate, discuss areas for targeted improvement, and describe a prototype system built to test these ideas. I conclude with suggestions for further exploration and development.