874 resultados para Serious Game Edutainment GWAP Applicazione Gamification Apache Cordova
Resumo:
Questa tesi è il risultato dell’attività di sviluppo di una applicazione Web per l’analisi e la presentazione di dati relativi al mercato immobiliare italiano, svolta presso l’azienda responsabile del portale immobiliare all’indirizzo www.affitto.it. L'azienda commissiona lo sviluppo di un sistema software che generi uno storico e descriva l'andamento del mercato immobiliare nazionale. In questa tesi verrà presentato il processo di sviluppo software che ha portato alla realizzazione del prodotto, che è costituito da un applicativo Web-based implementato col supporto di tecnologie quali PHP,HTML,MySQL,CSS.
Resumo:
Questo studio prospettico valuta l’efficacia e i vantaggi del sistema LigasureTM rispetto alle tecniche chirurgiche tradizionali, in quattro differenti procedure eseguite su 77 cani. I soggetti sono stati suddivisi in 4 gruppi, a seconda della chirurgia eseguita: Gruppo 1, 25 pazienti sottoposti a Splenectomia “aperta” semplice; Gruppo 2, 15 pazienti sottoposti a Splenectomia “aperta” complessa; Gruppo 3, 22 pazienti sottoposti ad Ovariectomia “aperta”. Gruppo 4: 18 pazienti sottoposti a Linfoadenectomia. Ciascun gruppo è stato a sua volta suddiviso in due sottogruppi: a (LigasureTM) e b (Tradizionale), a seconda della metodica utilizzata. Sono stati analizzati: il segnalamento, i parametri ematologici, le condizioni cliniche, le informazioni riguardanti l’intervento chirurgico e l’outcome. In tutti i gruppi il ricorso all’utilizzo di garze nonché dei fili da sutura sono risultati statisticamente inferiori nei pazienti operati con il sistema a radiofrequenza (Gruppo 1, P < 0.0001; Gruppo 2, P < 0,0014; Gruppo 3, P = 0,0001; Gruppo 4, P = 0,0148). Anche i tempi per la rimozione dell’organo sono significativamente ridotti in tutti i gruppi in cui è stato utilizzato il sistema LigasureTM (Gruppo 1 P < 0.0001; Gruppo 2 P < 0,0014; Gruppo 3 P = 0,0009; Gruppo 4 P = 0,0008), come i tempi chirurgici nei gruppi 1, 2 e 3 (P = 0,0287; P = 0,0064; e P = 0,0124) ed anestesiologici nei gruppi 1a e 2a (P = 0,0176; P = 0,0043). Tra le variabili analizzate, l’utilizzo del sistema di sintesi vascolare a radiofrequenza, è l’unico ad influenzare i tempi necessari per l’esecuzione della procedura. Questo studio dimostra, quindi, come il sistema LigasureTM sia sicuro ed efficace per le procedure chirurgiche esaminate, riducendo i tempi della chirurgia e limitando, quindi, i rischi per il paziente, indipendentemente dall’operatore, dall’esecuzione di altre procedure contemporanee e dalla natura della patologia splenica o linfonodale.
Resumo:
L’emanazione del Decreto 5 dicembre 2013, ha inaugurato una nuova stagione per il settore energetico italiano, dando vita anche in Italia, in linea con gli altri paesi europei, alla possibilità di valorizzare il biogas, prodotto a seguito di un processo di digestione anaerobica, come biometano, un gas con maggiore contenuto energetico che a seguito di opportuni trattamenti, può essere paragonabile al gas naturale. Il lavoro svolto pertanto si pone come obiettivo quello di individuare gli elementi peculiari che potrebbero favorire lo sviluppo e la crescita del biometano nel contesto italiano.
Resumo:
In questo elaborato viene presentata Semantic City Guide, un'applicazione mobile di guida turistica basata su Linked Open Data. Si vogliono presentare i principali vantaggi e svantaggi derivati dall'interazione tra sviluppo nativo di applicazioni mobili e tecnologie del Semantic Web. Il tutto verrà contestualizzato esaminando alcuni progetti di aziende ed enti statali operativi nel settore turistico e dell'informatica.
Resumo:
Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsità di soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Università di Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
Through the analysis of American TV show Game of Thrones, this dissertation will focus on the linguistic issues concerning the adaptation from books to television, the power of language over the audience, and the creation of two languages, with all the linguistic and cultural implications related to this phenomenon.
Resumo:
Partendo dallo sviluppo della teoria dell'apprendimento Hebbiano, si delinea un percorso per la creazione di robot in grado di apprendere tramite architettura DAC e Value System.
Resumo:
Il sempre crescente numero di applicazioni di reti di sensori, robot cooperanti e formazioni di veicoli, ha fatto sì che le problematiche legate al coordinamento di sistemi multi-agente (MAS) diventassero tra le più studiate nell’ambito della teoria dei controlli. Esistono numerosi approcci per affrontare il problema, spesso profondamente diversi tra loro. La strategia studiata in questa tesi è basata sulla Teoria del Consenso, che ha una natura distribuita e completamente leader-less; inoltre il contenuto informativo scambiato tra gli agenti è ridotto al minimo. I primi 3 capitoli introducono ed analizzano le leggi di interazione (Protocolli di Consenso) che permettono di coordinare un Network di sistemi dinamici. Nel capitolo 4 si pensa all'applicazione della teoria al problema del "loitering" circolare di più robot volanti attorno ad un obiettivo in movimento. Si sviluppa a tale scopo una simulazione in ambiente Matlab/Simulink, che genera le traiettorie di riferimento di raggio e centro impostabili, a partire da qualunque posizione iniziale degli agenti. Tale simulazione è stata utilizzata presso il “Center for Research on Complex Automated Systems” (CASY-DEI Università di Bologna) per implementare il loitering di una rete di quadrirotori "CrazyFlie". I risultati ed il setup di laboratorio sono riportati nel capitolo 5. Sviluppi futuri si concentreranno su algoritmi locali che permettano agli agenti di evitare collisioni durante i transitori: il controllo di collision-avoidance dovrà essere completamente indipendente da quello di consenso, per non snaturare il protocollo di Consenso stesso.
Resumo:
L'imposta sul valore aggiunto è caratterizzata da un meccanismo applicativo complesso preordinato al raggiungimento della neutralità in cui rivestono fondamentale rilevanza particolari obblighi strumentali richiesti al contribuente (fatturazione, registrazioni contabili, dichiarazioni). Il presente progetto di ricerca è finalizzato a valutare la propensione e funzionalità del meccanismo applicativo rispetto al generale principio di neutralità dell’imposta e la valenza svolta dagli obblighi strumentali rispetto alla qualificazione della fattispecie impositiva.
Resumo:
In questa tesi si è data una dimostrazione dovuta ad Andreotti e Frenkel del Teorema di Lefschetz, utilizzando gli strumenti e i risultati della Teoria di Morse.
Resumo:
Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).
Resumo:
La tesi tratta il processo di analisi, progettazione e implementazione dell'applicazione del corso di laurea di Programmazione, in ambiente iOS. L'applicazione fornirà i servizi, ora offerti dal portale del corso di laurea, ottimizzati per dispositivi mobili.
Resumo:
Applicazione di alcune procedure del sistema di gestione OHSAS allo stabilimento, monitoraggio e valutazione dei risultati ottenuti.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.