973 resultados para studio implementazione modelli continui deflusso
Resumo:
L’obiettivo di questo lavoro di tesi è stato quindi quello di ricercare e archiviare tutti i dati sperimentali di correnti ioniche umane ventricolari presenti in letteratura fino ad oggi, per costruire uno strumento di facile utilizzo per chiunque abbia la necessità di sviluppare o validare modelli matematici di potenziale d’azione. Partendo da una fase iniziale di ricerca vera e propria degli articoli in letteratura, utilizzando il motore di ricerca PubMed come strumento principale, sono stati estratti e archiviati tutti i dati di interesse, divisi per tipo di corrente, memorizzando le informazioni principali in un foglio di lavoro e salvando i dati sia come immagini che come vettori, per consentirne in futuro una rapida consultazione e un facile utilizzo.
Resumo:
Questo elaborato di tesi illustra la realizzazione del back-end di LogicPlayer, un'app Android per la didattica della Deduzione Naturale
Resumo:
L'opera preliminarmente in una accurata analisi della configurazione e delle interrelazioni dei sistemi energetici presenti nello stabilimento produttivo Caviro Enomondo. Successivamente è svolto un approfondimento del quadro normativo relativo all’incentivazione delle fonti energetiche rinnovabili non fotovoltaiche e delle sue recenti evoluzioni, andando ad identificare tutte le possibili vie di sviluppo per impianti di produzione di biogas promosse a livello nazionale e che possono potenzialmente trovare applicazione nell’impianto in esame; questo studio è effettuato con particolare attenzione alla opportunità di effettuare un upgrading di tale impianto per realizzare ad una raffinazione totale o parziale del biogas a biometano. A seguito dell’identificazione della tipologia di prodotto e/o di processo che offre le migliori prospettive per una implementazione industriale e delle caratteristiche chimico-fisiche che questo deve rispecchiare, si prosegue quindi individuando lo schema impiantistico ottimale per adeguare l’attuale sistema di produzione al nuovo target. A seguire, approfondendo lo studio delle varie tecnologie disponibili ad oggi allo stato dell’arte, si identificano quelle maggiormente promettenti, mettendone in evidenza peculiarità positive e negative di ciascuna e giungendo alla identificazione della combinazione ottimale in termini di economicità, capacità produttiva, sicurezza ed impatto ambientale. Una volta individuate le caratteristiche di massima dell’impianto si procede ad un dimensionamento più accurato dello stesso andandone a valutare anche entità dei costi di investimento e di gestione. Attraverso l’instaurazione di contatti con ditte specializzate operanti nel settore industriale di riferimento, si giunge all’individuazione specifica dei modelli dei macchinari ed impianti richiesti. Il progetto si sviluppa successivamente andando a valutare le possibili modalità di utilizzo del prodotto finale che offrono maggiori prospettive di valorizzazione per l’azienda, identificando le varie soluzioni e gli interventi necessari per ciascuna di essa. La parte successiva dell’elaborato consiste in un confronto, in termini di valutazioni economiche, sull’opportunità di ognuna delle soluzioni prospettate, tenendo in considerazione i costi di investimento, di esercizio, i ricavi, e la componente incentivante. Si va infine a concludere il progetto proponendo una road-map per la realizzazione della soluzione che si evidenzia come la più promettente, con crono-programma degli interventi da eseguire, e aspettative di sviluppo a medio-lungo termine dell’investimento.
Resumo:
L'elaborato di tesi approfondisce il tema dei sistemi ERP all'interno dell'aziende svolgendo una presentazione di questi e del recente sviluppo della Enterprise Mobility secondo la strategia Mobile First. E' stata poi realizzata un'approfondita analisi della letteratura scientifica rispetto alle tecniche utili a scegliere il sistema ERP più adatto alle necessità del business aziendale. Infine è stato presentato il caso di un'implementazione di un sistema ERP all'interno di un'azienda operante nel settore industriale comprendente una presentazione dello stato attuale AS-IS e dello scenario futuro TO-BE.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
Tirocinio in azienda in cui ho sviluppato alcuni moduli di un'applicazione mobile per la forza vendita in android
Resumo:
In questa tesi si vuole parlare dello sviluppo e dell'implementazione di un'applicazione per smartphone. L'applicazione in questione si chiama BusinessChat, è stata sviluppata per Android e utilizza sia lato server, sia lato Client. BusinessChat è un applicazione che mette in contatto consumatori e gestori di attività. Lo scopo dell'app è quindi quello di permettere al consumatore, di comunicare con il business in maniera più immediata, semplice e diretta. Per quanto riguarda il business può utilizzare quest'app sia per fornire un servizio al proprio cliente che per utilizzarla per pubblicizzare la propria attività, ad esempio con messaggi in broadcast a tutti i propri contatti (questa funzione non è ancora presente nella nostra applicazione, ma verrà aggiunta in un breve futuro). L'utente può ricercare, attraverso l'uso di una mappa, una particolare attività, ed eventualmente mettersi in contatto con lei, ad esempio, se ciò che cerchiamo è un ristorante, potremmo voler sapere se questa sera sono ancora disponibili dei posti liberi nel proprio locale, oppure se ad esempio volessimo ordinare delle pizze da asporto dalla nostra pizzeria di fiducia o sapere se sono attrezzati per gestire clienti allergici al glutine, o più semplicemente per conoscere l'orario di chiusura, tutto questo sarebbe possibile farlo attraverso pochissimi passi grazie a BusinessChat.
Resumo:
Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Le Associazioni Non Profit giocano un ruolo sempre più rilevante nella vita dei cittadini e rappresentano un'importante realtà produttiva del nostro paese; molto spesso però risulta difficile trovare informazioni relative ad eventi, attività o sull'esistenza stessa di queste associazioni. Per venire in contro alle esigenze dei cittadini molte Regioni e Province mettono a disposizione degli elenchi in cui sono raccolte le informazioni relative alle varie organizzazioni che operano sul territorio. Questi elenchi però, presentano spesso grossi problemi, sia per quanto riguarda la correttezza dei dati, sia per i formati utilizzati per la pubblicazione. Questi fattori hanno portato all'idea e alla necessità di realizzare un sistema per raccogliere, sistematizzare e rendere fruibili le informazioni sulle Associazioni Non Profit presenti sul territorio, in modo che questi dati possano essere utilizzati liberamente da chiunque per scopi diversi. Il presente lavoro si pone quindi due obiettivi principali: il primo consiste nell'implementazione di un tool in grado di recuperare le informazioni sulle Associazioni Non Profit sfruttando i loro Siti Web; questo avviene per mezzo dell'utilizzo di tecniche di Web Crawling e Web Scraping. Il secondo obiettivo consiste nel pubblicare le informazioni raccolte, secondo dei modelli che ne permettano un uso libero e non vincolato; per la pubblicazione e la strutturazione dei dati è stato utilizzato un modello basato sui principi dei linked open data.
Resumo:
Questo elaborato tratta della progettazione e dell'implementazione di una piattaforma social, destinata alla commercializzazione, per creare, gestire, condividere un insieme di liste organizzate di oggetti. La piattaforma è di tipo client-server, dove il client consiste in un'applicazione Android e il server in un'applicazione Node.js e un database MySQL che offrono un'API RESTful. Nello specifico è stata trattata l'implementazione delle notifiche push (anche geolocalizzate) e la sincronizzazione dei dati per l'utilizzo offline.
Resumo:
Sviluppo e analisi di un dataset campione, composto da circa 3 mln di entry ed estratto da un data warehouse di informazioni riguardanti il consumo energetico di diverse smart home.
Resumo:
Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
L'obiettivo di questa Tesi di laurea è di creare un applicativo che informi gli utenti sulle reti circostanti, in particolare sulla qualità del segnale, sulle zone in cui la rete mobile è carente e sui punti d'accesso aperti. Per l'implementazione del servizio, è stato adottato un modello di business, il Crowdsourcing, per raccogliere informazioni sui sistemi di connessione, affinché qualsiasi utente dotato di Smartphone possa aggiungere elementi al dataset.