184 resultados para APACHE
Resumo:
Web content hosting, in which a Web server stores and provides Web access to documents for different customers, is becoming increasingly common. For example, a web server can host webpages for several different companies and individuals. Traditionally, Web Service Providers (WSPs) provide all customers with the same level of performance (best-effort service). Most service differentiation has been in the pricing structure (individual vs. business rates) or the connectivity type (dial-up access vs. leased line, etc.). This report presents DiffServer, a program that implements two simple, server-side, application-level mechanisms (server-centric and client-centric) to provide different levels of web service. The results of the experiments show that there is not much overhead due to the addition of this additional layer of abstraction between the client and the Apache web server under light load conditions. Also, the average waiting time for high priority requests decreases significantly after they are assigned priorities as compared to a FIFO approach.
Resumo:
Background: Candidemia affects patient populations from neonates to the elderly. Despite this, little information is available about the epidemiology of candidemia in elderly patients. Methods: We performed a retrospective analysis of 987 episodes of candidemia in adults (>14 years of age) from the databases of three laboratory-based surveys of candidemia performed at 14 tertiary care hospitals. Patients aged >= 60 years were considered elderly (group 1, n = 455, 46%) and were compared to younger patients (group 2, n = 532, 54%) regarding demographics, underlying diseases, comorbidities, exposure to medical procedures, species, treatment, and outcome. Results: The median APACHE II score was significantly higher in the elderly patients (19 vs. 15, p = 0.03). Variables that were observed significantly more frequently in elderly patients included admission to an intensive care unit, diabetes mellitus, renal failure, cardiac disease, lung disease, receipt of antibiotics or H2 blockers, insertion of a central venous catheter, mechanical ventilation, and candidemia due to Candida tropicalis. The 30-day mortality of elderly patients was significantly higher than that of younger patients (70% vs. 45%, p < 0.001). Factors associated with higher mortality by multivariate analysis included APACHE II score and being in group 1 (elderly). Factors associated with mortality in elderly patients were lung disease and the receipt of mechanical ventilation. Conclusions: Elderly patients account for a substantial proportion of patients with candidemia and have a higher mortality compared to younger patients. (C) 2012 International Society for Infectious Diseases. Published by Elsevier Ltd. All rights reserved.
Resumo:
Abstract Background The public health system of Brazil is structured by a network of increasing complexity, but the low resolution of emergency care at pre-hospital units and the lack of organization of patient flow overloaded the hospitals, mainly the ones of higher complexity. The knowledge of this phenomenon induced Ribeirão Preto to implement the Medical Regulation Office and the Mobile Emergency Attendance System. The objective of this study was to analyze the impact of these services on the gravity profile of non-traumatic afflictions in a University Hospital. Methods The study conducted a retrospective analysis of the medical records of 906 patients older than 13 years of age who entered the Emergency Care Unit of the Hospital of the University of São Paulo School of Medicine at Ribeirão Preto. All presented acute non-traumatic afflictions and were admitted to the Internal Medicine, Surgery or Neurology Departments during two study periods: May 1996 (prior to) and May 2001 (after the implementation of the Medical Regulation Office and Mobile Emergency Attendance System). Demographics and mortality risk levels calculated by Acute Physiology and Chronic Health Evaluation II (APACHE II) were determined. Results From 1996 to 2001, the mean age increased from 49 ± 0.9 to 52 ± 0.9 (P = 0.021), as did the percentage of co-morbidities, from 66.6 to 77.0 (P = 0.0001), the number of in-hospital complications from 260 to 284 (P = 0.0001), the mean calculated APACHE II mortality risk increased from 12.0 ± 0.5 to 14.8 ± 0.6 (P = 0.0008) and mortality rate from 6.1 to 12.2 (P = 0.002). The differences were more significant for patients admitted to the Internal Medicine Department. Conclusion The implementation of the Medical Regulation and Mobile Emergency Attendance System contributed to directing patients with higher gravity scores to the Emergency Care Unit, demonstrating the potential of these services for hierarchical structuring of pre-hospital networks and referrals.
Resumo:
Eliminadas las páginas en blanco
Resumo:
[ES]Objetivo principal. Analizar las características epidemiológicas y los factores pronósticos de los pacientes críticos según la duración de la ventilación mecánica. Material y Método. Estudio retrospectivo observacional con los pacientes adultos ingresados en una Unidad de Cuidados intensivos (UCI) de tercer nivel, durante 7 años y que precisaron de ventilación mecánica. Se analizaron variables demográficas como la edad, sexo, tipo de paciente, APACHE II, la estancia (UCI, pre-UCI y hospitalaria) y la necesidad de depuración extrarrenal. Se estudiaron las diferencias según su supervivencia y según la duración de la VM. Se llevaron a cabo modelos de previsión de la supervivencia mediante una regresión logística. Por último se estudió el impacto económico que ocasionaban en el servicio.
Resumo:
Il Cloud computing è probabilmente l'argomento attualmente più dibattuto nel mondo dell'Information and Communication Technology (ICT). La diffusione di questo nuovo modo di concepire l'erogazione di servizi IT, è l'evoluzione di una serie di tecnologie che stanno rivoluzionando le modalit à in cui le organizzazioni costruiscono le proprie infrastrutture informatiche. I vantaggi che derivano dall'utilizzo di infrastrutture di Cloud Computing sono ad esempio un maggiore controllo sui servizi, sulla struttura dei costi e sugli asset impiegati. I costi sono proporzionati all'eettivo uso dei servizi (pay-per-use), evitando dunque gli sprechi e rendendo più efficiente il sistema di sourcing. Diverse aziende hanno già cominciato a provare alcuni servizi cloud e molte altre stanno valutando l'inizio di un simile percorso. La prima organizzazione a fornire una piattaforma di cloud computing fu Amazon, grazie al suo Elastic Computer Cloud (EC2). Nel luglio del 2010 nasce OpenStack, un progetto open-source creato dalla fusione dei codici realizzati dall'agenzia governativa della Nasa[10] e dell'azienda statunitense di hosting Rackspace. Il software realizzato svolge le stesse funzioni di quello di Amazon, a differenza di questo, però, è stato rilasciato con licenza Apache, quindi nessuna restrizione di utilizzo e di implementazione. Oggi il progetto Openstack vanta di numerose aziende partner come Dell, HP, IBM, Cisco, e Microsoft. L'obiettivo del presente elaborato è quello di comprendere ed analizzare il funzionamento del software OpenStack. Il fine principale è quello di familiarizzare con i diversi componenti di cui è costituito e di concepire come essi interagiscono fra loro, per poter costruire infrastrutture cloud del tipo Infrastructure as a service (IaaS). Il lettore si troverà di fronte all'esposizione degli argomenti organizzati nei seguenti capitoli. Nel primo capitolo si introduce la definizione di cloud computing, trattandone le principali caratteristiche, si descrivono poi, i diversi modelli di servizio e di distribuzione, delineando vantaggi e svantaggi che ne derivano. Nel secondo capitolo due si parla di una delle tecnologie impiegate per la realizzazione di infrastrutture di cloud computing, la virtualizzazione. Vengono trattate le varie forme e tipologie di virtualizzazione. Nel terzo capitolo si analizza e descrive in dettaglio il funzionamento del progetto OpenStack. Per ogni componente del software, viene illustrata l'architettura, corredata di schemi, ed il relativo meccanismo. Il quarto capitolo rappresenta la parte relativa all'installazione del software e alla configurazione dello stesso. Inoltre si espongono alcuni test effettuati sulla macchina in cui è stato installato il software. Infine nel quinto capitolo si trattano le conclusioni con le considerazioni sugli obiettivi raggiunti e sulle caratteristiche del software preso in esame.
Resumo:
Constructing ontology networks typically occurs at design time at the hands of knowledge engineers who assemble their components statically. There are, however, use cases where ontology networks need to be assembled upon request and processed at runtime, without altering the stored ontologies and without tampering with one another. These are what we call "virtual [ontology] networks", and keeping track of how an ontology changes in each virtual network is called "multiplexing". Issues may arise from the connectivity of ontology networks. In many cases, simple flat import schemes will not work, because many ontology managers can cause property assertions to be erroneously interpreted as annotations and ignored by reasoners. Also, multiple virtual networks should optimize their cumulative memory footprint, and where they cannot, this should occur for very limited periods of time. We claim that these problems should be handled by the software that serves these ontology networks, rather than by ontology engineering methodologies. We propose a method that spreads multiple virtual networks across a 3-tier structure, and can reduce the amount of erroneously interpreted axioms, under certain raw statement distributions across the ontologies. We assumed OWL as the core language handled by semantic applications in the framework at hand, due to the greater availability of reasoners and rule engines. We also verified that, in common OWL ontology management software, OWL axiom interpretation occurs in the worst case scenario of pre-order visit. To measure the effectiveness and space-efficiency of our solution, a Java and RESTful implementation was produced within an Apache project. We verified that a 3-tier structure can accommodate reasonably complex ontology networks better, in terms of the expressivity OWL axiom interpretation, than flat-tree import schemes can. We measured both the memory overhead of the additional components we put on top of traditional ontology networks, and the framework's caching capabilities.
Resumo:
L’insufficienza renale acuta(AKI) grave che richiede terapia sostitutiva, è una complicanza frequente nelle unità di terapia intensiva(UTI) e rappresenta un fattore di rischio indipendente di mortalità. Scopo dello studio é stato valutare prospetticamente, in pazienti “critici” sottoposti a terapie sostitutive renali continue(CRRT) per IRA post cardiochirurgia, la prevalenza ed il significato prognostico del recupero della funzione renale(RFR). Pazienti e Metodi:Pazienti(pz) con AKI dopo intervento di cardiochirurgia elettivo o in emergenza con disfunzione di due o più organi trattati con CRRT. Risultati:Dal 1996 al 2011, 266 pz (M 195,F 71, età 65.5±11.3aa) sono stati trattati con CRRT. Tipo di intervento: CABG(27.6%), dissecazione aortica(33%), sostituzione valvolare(21.1%), CABG+sostituzione valvolare(12.6%), altro(5.7%). Parametri all’inizio del trattamento: BUN 86.1±39.4, creatininemia(Cr) 3.96±1.86mg/dL, PAM 72.4±13.6mmHg, APACHE II score 30.7±6.1, SOFAscore 13.7±3. RIFLE: Risk (11%), Injury (31.4%), Failure (57.6%). AKI oligurica (72.2%), ventilazione meccanica (93.2%), inotropi (84.5%). La sopravvivenza a 30 gg ed alla dimissione è stata del 54.2% e del 37.1%. La sopravvivenza per stratificazione APACHE II: <24=85.1 e 66%, 25-29=63.5 e 48.1%, 30-34=51.8 e 31.8%, >34=31.6 e 17.7%. RFR ha consentito l’interruzione della CRRT nel 87.8% (86/98) dei survivors (Cr 1.4±0.6mg/dL) e nel 14.5% (24/166) dei nonsurvivors (Cr 2.2±0.9mg/dL) con un recupero totale del 41.4%. RFR è stato osservato nel 59.5% (44/74) dei pz non oligurici e nel 34.4% dei pz oligurici (66/192). La distribuzione dei pz sulla base dei tempi di RFR è stata:<8=38.2%, 8-14=20.9%, 15-21=11.8%, 22-28=10.9%, >28=18.2%. All’analisi multivariata, l’oliguria, l’età e il CV-SOFA a 7gg dall’inizio della CRRT si sono dimostrati fattori prognostici sfavorevoli su RFR(>21gg). RFR si associa ad una sopravvivenza elevata(78.2%). Conclusioni:RFR significativamente piu frequente nei pz non oligurici si associa ad una sopravvivenza alla dimissione piu elevata. La distribuzione dei pz in rapporto ad APACHE II e SOFAscore dimostra che la sopravvivenza e RFR sono strettamente legati alla gravità della patologia.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Da quando è iniziata l'era del Cloud Computing molte cose sono cambiate, ora è possibile ottenere un server in tempo reale e usare strumenti automatizzati per installarvi applicazioni. In questa tesi verrà descritto lo strumento MODDE (Model-Driven Deployment Engine), usato per il deployment automatico, partendo dal linguaggio ABS. ABS è un linguaggio a oggetti che permette di descrivere le classi in una maniera astratta. Ogni componente dichiarato in questo linguaggio ha dei valori e delle dipendenze. Poi si procede alla descrizione del linguaggio di specifica DDLang, col quale vengono espressi tutti i vincoli e le configurazioni finali. In seguito viene spiegata l’architettura di MODDE. Esso usa degli script che integrano i tool Zephyrus e Metis e crea un main ABS dai tre file passati in input, che serve per effettuare l’allocazione delle macchine in un Cloud. Inoltre verranno introdotti i due sotto-strumenti usati da MODDE: Zephyrus e Metis. Il primo si occupa di scegliere quali servizi installare tenendo conto di tutte le loro dipendenze, cercando di ottimizzare il risultato. Il secondo gestisce l’ordine con cui installarli tenendo conto dei loro stati interni e delle dipendenze. Con la collaborazione di questi componenti si ottiene una installazione automatica piuttosto efficace. Infine dopo aver spiegato il funzionamento di MODDE viene spiegato come integrarlo in un servizio web per renderlo disponibile agli utenti. Esso viene installato su un server HTTP Apache all’interno di un container di Docker.
Resumo:
Partendo dalle analisi condotte sulla relazione esistente tra il divertimento ed un migliore apprendimento, e sui concetti di Edutainment e Gamification, si è realizzata una applicazione per dispositivi mobili che riproduce in formato digitale il gioco cinese del Tangram al fine di utilizzarlo come strumento di edutainment volto all'apprendimento di alcune nozioni di geometria ed all'allenamento delle abilità legate alla logica. Nello sviluppo di tale applicazione si è fatto riferimento alla metodologia di progettazione delle applicazioni ibride, in modo da semplificare la portabilità cross-platform tra i dispositivi, e si è prestata particolare attenzione alla creazione di un sistema che possa essere inserito come modulo all'interno di una applicazione multi-gioco di più ampio respiro. Per la progettazione si è fatto riferimento al paradigma ad oggetti e ad una gestione delle dinamiche di gioco event-driven.
Resumo:
Lo scopo di questa tesi è realizzare un serious game fruibile attraverso dispositivi mobili, con l’obiettivo di veicolare i concetti relativi alla raccolta differenziata ai bambini, in età scolare e pre-scolare. La modalità di gioco implementata prevede una partecipazione in coppia. I due giocatori, posti uno di fronte all'altro, devono guidare a turno MecWillly, un robot umanoide che si muove all'interno di una griglia solo in determinate direzioni, al bidone giusto, a seconda del rifiuto che viene loro mostrato. Un'altra finalità del gioco, quindi, è quella di imparare a collaborare per raggiungere un obiettivo comune, ma anche di capire come cambia la rappresentazione degli oggetti nello spazio, a seconda del punto di vista di un giocatore rispetto all'altro.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.