959 resultados para Workflow Execution
Resumo:
Internet s'ha convertit en una font extraordinària de recursos per una audiència en constant creixement arreu el món. A l'igual que en altres activitats de la nostra societat, el coneixement de la localització geogràfica d'aquests recursos i de la gent que hi accedeix és útil tant pels usuaris com pels proveïdors d'informació. La geolocalització IP, però, pot donar informació errònia o amb un nivell de precisió que no vagi més enllà de la referència a un país.Aquest treball recull els diferents actors que formen part de la geolocalització IP i s'ha analitzat el paper que juguen en aquest procés així com la seva influència en el nivell de fiabilitat i exactitud final. Amb aquests sòlids fonaments s'ha desenvolupat una aplicació per representar gràficament en un mapa la geolocalització IP d'un dispositiu i la dels nodes que formen el camí realitzat fins arribar-hi, així com tota la informació addicional que de cada IP s'ha pogut obtenir.El resultat ha estat una memòria tècnica de tot el treball de recerca juntament amb una aplicació que s'executa en l'entorn de Microsoft Windows i plataforma .NET, caracteritzada per la seva facilitat d'ús gràcies a un disseny simple molt intuïtiu i efectiu, la rapidesa d'execució per què aprofita la programació de fils, i un positiu impacte visual ja que fa servir l'API de Google Maps per a la representació visual de la traça.
Resumo:
MRI has evolved into an important diagnostic technique in medical imaging. However, reliability of the derived diagnosis can be degraded by artifacts, which challenge both radiologists and automatic computer-aided diagnosis. This work proposes a fully-automatic method for measuring image quality of three-dimensional (3D) structural MRI. Quality measures are derived by analyzing the air background of magnitude images and are capable of detecting image degradation from several sources, including bulk motion, residual magnetization from incomplete spoiling, blurring, and ghosting. The method has been validated on 749 3D T(1)-weighted 1.5T and 3T head scans acquired at 36 Alzheimer's Disease Neuroimaging Initiative (ADNI) study sites operating with various software and hardware combinations. Results are compared against qualitative grades assigned by the ADNI quality control center (taken as the reference standard). The derived quality indices are independent of the MRI system used and agree with the reference standard quality ratings with high sensitivity and specificity (>85%). The proposed procedures for quality assessment could be of great value for both research and routine clinical imaging. It could greatly improve workflow through its ability to rule out the need for a repeat scan while the patient is still in the magnet bore.
Antiretroviral adherence program in HIV patients: a feasibility study in the Swiss HIV Cohort Study.
Resumo:
Objective To evaluate the feasibility of a comprehensive, interdisciplinary adherence program aimed at HIV patients. Setting Two centers of the Swiss HIV Cohort Study: Lausanne and Basel. Method 6-month, pilot, quasi-experimental, 2-arm design (control and intervention). Patients starting a first or second combined antiretroviral therapy line were invited to participate in the study. Patients entering the intervention arm were proposed a multifactorial intervention along with an electronic drug monitor. It consisted of a maximum of six 30-min sessions with the interventionist coinciding with routine HIV check-up. The sessions relied on individualized semi-structured motivational interviews. Patients in the control arm used directly blinded EDM and did not participate in motivational interviews. Main outcome measures Rate of patients' acceptance to take part in the HIV-adherence program and rate of patients' retention in this program assessed in both intervention and control groups. Persistence, execution and adherence. Results The study was feasible in one center but not in the other one. Hence, the control group previously planned in Basel was recruited in Lausanne. Inclusion rate was 84% (n = 21) in the intervention versus 52% (n = 11) in the control group (P = 0.027). Retention rate was 91% in the intervention versus 82% in the control group (P = ns). Regarding adherence, execution was high in both groups (97 vs. 95%). Interestingly, the statistical model showed that adherence decreased more quickly in the control versus the intervention group (interaction group × time P < 0.0001). Conclusion The encountered difficulties rely on the implementation, i.e., on the program and the health care system levels rather than on the patient level. Implementation needs to be evaluated further; to be feasible a new adherence program needs to fit into the daily routine of the centre and has to be supported by all trained healthcare providers. However, this study shows that patients' adherence behavior evolved differently in both groups; it decreased more quickly over time in the control than in the intervention group. RCTs are eventually needed to assess the clinical impact of such an adherence program and to verify whether skilled pharmacists can ensure continuity of care for HIV outpatients.
Resumo:
A recent publication in this journal [Neumann et al., Forensic Sci. Int. 212 (2011) 32-46] presented the results of a field study that revealed the data provided by the fingermarks not processed in a forensic science laboratory. In their study, the authors were interested in the usefulness of this additional data in order to determine whether such fingermarks would have been worth submitting to the fingermark processing workflow. Taking these ideas as a starting point, this communication here places the fingermark in its context of a case brought before a court, and examines the question of processing or not processing a fingermark from a decision-theoretic point of view. The decision-theoretic framework presented provides an answer to this question in the form of a quantified expression of the expected value of information (EVOI) associated with the processed fingermark, which can then be compared with the cost of processing the mark.
Resumo:
In soccer, dead-ball moves are those in which the ball is returned to play from a stationary position following an interruption of play. The aim of this study was to analyse the effectiveness of one such dead-ball move, namely corner kicks, and to identify the key variables that determine the success of a shot or header following a corner, thereby enabling a model of successful corner kicks to be proposed. We recorded 554 corner kicks performed during the 2010 World Cup in South Africa and carried out a univariate, bivariate and multivariate analysis of the data. The results indicated that corners were of limited effectiveness in terms of the success of subsequent shots or headers. The analysis also revealed a series of variables that were significantly related to one another, and this enabled us to propose an explanatory model. Although this model had limited explanatory power, it nonetheless helps to understand the execution of corner kicks in practical terms.
Resumo:
The cdc10 gene of the fission yeast S. pombe is required for traverse of the start control in late G1 and commitment to the mitotic cell cycle. To increase our understanding of the events which occur at start, a pseudoreversion analysis was undertaken to identify genes whose products may interact with cdc10 or bypass the requirement for it. A single gene, sct1+ (suppressor of cdc ten), has been identified, mutation of which suppresses all conditional alleles and a null allele of cdc10. Bypass of the requirement for cdc10+ function by sct1-1 mutations leads to pleiotropic defects, including microtubule, microfilament and nuclear structural abnormalities. Our data suggest that sct1 encodes a protein that is dependent upon cdc10+ either for its normal function or expression, or is a component of a checkpoint that monitors execution of p85cdc10 function.
Resumo:
Many audio watermarking schemes divide the audio signal into several blocks such that part of the watermark is embedded into each of them. One of the key issues in these block-oriented watermarking schemes is to preserve the synchronisation, i.e. to recover the exact position of each block in the mark recovery process. In this paper, a novel time domain synchronisation technique is presented together with a new blind watermarking scheme which works in the Discrete Fourier Transform (DFT or FFT) domain. The combined scheme provides excellent imperceptibility results whilst achieving robustness against typical attacks. Furthermore, the execution of the scheme is fast enough to be used in real-time applications. The excellent transparency of the embedding algorithm makes it particularly useful for professional applications, such as the embedding of monitoring information in broadcast signals. The scheme is also compared with some recent results of the literature.
Resumo:
Multihop ad-hoc networks have a dynamic topology. Retrieving a route towards a remote peer requires the execution of a recipient lookup, which can publicly reveal sensitive information about him. Within this context, we propose an efficient, practical and scalable solution to guaranteethe anonymity of recipients' nodes in ad-hoc networks.
Resumo:
This paper presents a relational positioning methodology for flexibly and intuitively specifying offline programmed robot tasks, as well as for assisting the execution of teleoperated tasks demanding precise movements.In relational positioning, the movements of an object can be restricted totally or partially by specifying its allowed positions in terms of a set of geometric constraints. These allowed positions are found by means of a 3D sequential geometric constraint solver called PMF – Positioning Mobile with respect to Fixed. PMF exploits the fact that in a set of geometric constraints, the rotational component can often be separated from the translational one and solved independently.
Resumo:
Diplomityössä on tutkittu reaaliaikaisen toimintolaskennan toteuttamista suomalaisen lasersiruja valmistavan PK-yrityksen tietojärjestelmään. Lisäksi on tarkasteltu toimintolaskennan vaikutuksia operatiiviseen toimintaan sekä toimintojen johtamiseen. Työn kirjallisuusosassa on käsitelty kirjallisuuslähteiden perusteella toimintolaskennan teorioita, laskentamenetelmiä sekä teknisessä toteutuksessa käytettyjä teknologioita. Työn toteutusosassa suunniteltiin ja toteutettiin WWW-pohjainen toimintolaskentajärjestelmä case-yrityksen kustannuslaskennan sekä taloushallinnon avuksi. Työkalu integroitiin osaksi yrityksen toiminnanohjaus- sekä valmistuksenohjausjärjestelmää. Perinteisiin toimintolaskentamallien tiedonkeruujärjestelmiin verrattuna case-yrityksessä syötteet toimintolaskentajärjestelmälle tulevat reaaliaikaisesti osana suurempaa tietojärjestelmäintegraatiota.Diplomityö pyrkii luomaan suhteen toimintolaskennan vaatimusten ja tietokantajärjestelmien välille. Toimintolaskentajärjestelmää yritys voi hyödyntää esimerkiksi tuotteiden hinnoittelussa ja kustannuslaskennassa näkemällä tuotteisiin liittyviä kustannuksia eri näkökulmista. Päätelmiä voidaan tehdä tarkkaan kustannusinformaatioon perustuen sekä määrittää järjestelmän tuottaman datan perusteella, onko tietyn projektin, asiakkuuden tai tuotteen kehittäminen taloudellisesti kannattavaa.
Resumo:
Web-palvelut muodostavat keskeisen osan semanttista web:iä. Ne mahdollistavat nykyaikaisen ja tehokkaan välineistön hajautettuun laskentaan ja luovat perustan palveluperustaisille arkkitehtuureille. Verkottunut automatisoitu liiketoiminta edellyttää jatkuvaa aktiivisuutta kaikilta osapuolilta. Lisäksi sitä tukevan järjestelmäntulee olla joustava ja sen tulee tukea monipuolista toiminnallisuutta. Nämä tavoitteet voidaan saavuttamaan yhdistämällä web-palveluita. Yhdistämisprosessi muodostuu joukosta tehtäviä kuten esim. palveluiden mallintaminen, palveluiden koostaminen, palveluiden suorittaminen ja tarkistaminen. Työssä on toteutettu yksinkertainen liiketoimintaprosessi. Toteutuksen osalta tarkasteltiin vaihtoehtoisia standardeja ja toteutustekniikoita. Myös suorituksen optimointiin liittyvät näkökulmat pyrittiin ottamaan huomioon.
Resumo:
Tässä diplomityössä käsitellään paperitehtaan kunnossapitoprosessien hallintaa ja niiden uudistamista yrityksen strategisista lähtökohdista. Diplomityön tavoitteena on etsiä merkittävimmät poikkeamat toimintojen nykytilan ja strategiassa määritellyn tavoitetilan välillä, ja tämän perusteella esittää kehitysehdotuksia toimintojen parantamiseksi. Tutkimuksen kirjallisessa osassa tutkimusongelmaa käsitellään prosessien kuvaamisen, ydinprosessien määrittelemisen ja toimintamallimuutoksen käyttöönoton näkökulmasta. Lisäksi kirjallisissa lähteissä hyödynnetään kunnossapidon johtamisen ajatuksia. Diplomityön empiirisessä osassa toteutetaan haastattelututkimus kohdeyrityksen kunnossapito-organisaatiossa sekä benchmark -tyyppinen haastattelu ulkopuolisessa yrityksessä. Tutkimuksen tulokset osoittavat, että kunnossapitotoimintojen toteuttaminen on hajanaista niin yrityksen strategiaan kuin osastojen väliseen toimintaan suhteutettuna. Näiden tulosten perusteella suositellaan johdolle aktiivisempaa otetta toimintamallimuutoksen loppuunsaattamiseen.
Resumo:
Perushyväksymistestaus on oleellinen osa S60 alustan julkaisukandidaatin maturiteetin seurannassa. Perushyväksymistestausta tehdään myös ohjelmiston julkistamiskelpoisuuden varmistamiseksi. Testaustulokset halutaan aina mahdollisimman nopeasti. Lisäksi testaustiimin työmäärä on hiljalleen kasvanut, koska projekteja onenemmän ja korjauksia sisältäviä ja räätälöityjä settejä testataan enemmän. Tässä diplomityössä tutkitaan lyhentäisikö testisetin osan automatisointi testien ajoaikaa ja helpottaisiko se testaajien työtaakkaa. Tarkastelu toteutetaan automatisoimalla osa testisetistä ja kokemuksia esitellään tässä lopputyössä.
Resumo:
Monimutkaisen tietokonejärjestelmän suorituskykyoptimointi edellyttää järjestelmän ajonaikaisen käyttäytymisen ymmärtämistä. Ohjelmiston koon ja monimutkaisuuden kasvun myötä suorituskykyoptimointi tulee yhä tärkeämmäksi osaksi tuotekehitysprosessia. Tehokkaampien prosessorien käytön myötä myös energiankulutus ja lämmöntuotto ovat nousseet yhä suuremmiksi ongelmiksi, erityisesti pienissä, kannettavissa laitteissa. Lämpö- ja energiaongelmien rajoittamiseksi on kehitetty suorituskyvyn skaalausmenetelmiä, jotka edelleen lisäävät järjestelmän kompleksisuutta ja suorituskykyoptimoinnin tarvetta. Tässä työssä kehitettiin visualisointi- ja analysointityökalu ajonaikaisen käyttäytymisen ymmärtämisen helpottamiseksi. Lisäksi kehitettiin suorituskyvyn mitta, joka mahdollistaa erilaisten skaalausmenetelmien vertailun ja arvioimisen suoritusympäristöstä riippumatta, perustuen joko suoritustallenteen tai teoreettiseen analyysiin. Työkalu esittää ajonaikaisesti kerätyn tallenteen helposti ymmärrettävällä tavalla. Se näyttää mm. prosessit, prosessorikuorman, skaalausmenetelmien toiminnan sekä energiankulutuksen kolmiulotteista grafiikkaa käyttäen. Työkalu tuottaa myös käyttäjän valitsemasta osasta suorituskuvaa numeerista tietoa, joka sisältää useita oleellisia suorituskykyarvoja ja tilastotietoa. Työkalun sovellettavuutta tarkasteltiin todellisesta laitteesta saatua suoritustallennetta sekä suorituskyvyn skaalauksen simulointia analysoimalla. Skaalausmekanismin parametrien vaikutus simuloidun laitteen suorituskykyyn analysoitiin.
Resumo:
Tässä diplomityössä esitellään ohjelmistotestauksen ja verifioinnin yleisiä periaatteita sekä käsitellään tarkemmin älypuhelinohjelmistojen verifiointia. Työssä esitellään myös älypuhelimissa käytettävä Symbian-käyttöjärjestelmä. Työn käytännön osuudessa suunniteltiin ja toteutettiin Symbian-käyttöjärjestelmässä toimiva palvelin, joka tarkkailee ja tallentaa järjestelmäresurssien käyttöä. Verifiointi on tärkeä ja kuluja aiheuttava tehtävä älypuhelinohjelmistojen kehityssyklissä. Kuluja voidaan vähentää automatisoimalla osa verifiointiprosessista. Toteutettu palvelin automatisoijärjestelmäresurssien tarkkailun tallentamalla tietoja niistä tiedostoon testien ajon aikana. Kun testit ajetaan uudestaan, uusia tuloksia vertaillaan lähdetallenteeseen. Jos tulokset eivät ole käyttäjän asettamien virherajojen sisällä, siitä ilmoitetaan käyttäjälle. Virherajojen ja lähdetallenteen määrittäminen saattaa osoittautua vaikeaksi. Kuitenkin, jos ne määritetään sopivasti, palvelin tuottaa hyödyllistä tietoa poikkeamista järjestelmäresurssien kulutuksessa testaajille.