992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato tratta la progettazione e la costruzione di un database, mediante l'utilizzo di un Database Management System (DBMS), correlato a una interfaccia GIS, con l'obiettivo di ottenere una panoramica del sistema della mobilità del Comune di Bologna. I software che si utilizzano sono QGIS e PostgreSQL, entrambi open source. Si descrive nel dettaglio la fase di raccolta e selezione dei file da inserire nel database, riguardanti la mobilità, i trasporti e le infrastrutture viarie, la maggior parte dei quali provenienti dagli uffici del Comune di Bologna. In seguito si mostra la fase di realizzazione del database e si effettuano interrogazioni sui dati inseriti, per ottenere nuove informazioni che descrivono la mobilità e l'accessibilità urbana. L'analisi della tesi si focalizza verso la valutazione dell'accessibilità alle modalità sostenibili, quali trasporto pubblico e modalità non motorizzate (mobilità ciclistica e pedonale). In questo modo si crea uno strumento per individuare punti di forza e criticità del sistema della mobilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idrovolante è un velivolo in grado di decollare ed ammarare su uno specchio d’acqua e che, quindi, non necessita di infrastrutture di terra come aeroporti. Questa caratteristica lo rende ideale per certe tipologie di missione e gli permette di operare in zone remote e poco accessibili ai velivoli convenzionali. Il prezzo da pagare per questa maggiore libertà di impiego sono le peggiori prestazioni di un idrovolante rispetto alle sue controparti di terra, soprattutto in termini di peso e resistenza aerodinamica. In questa tesi si analizzano i metodi per la progettazione di un idrovolante e, in particolare, dei suoi scarponi, che sono il dispositivo che gli consente di galleggiare e svolgere operazioni sull’acqua. Successivamente, si applicano queste metodologie alla progettazione degli scarponi per tre velivoli in configurazione convenzionale. Si descrive in seguito come produrre un disegno CAD di questi velivoli con e senza scarponi tramite il software Solidworks e, sempre con questo programma, come svolgere simulazioni di fluidodinamica per un calcolo indicativo del loro coefficiente di resistenza aerodinamica in condizioni di volo livellato. Si vede, poi, come effettuare una stima del peso totale al decollo di un velivolo e si calcola l’aumento percentuale di questo parametro nella trasformazione dei velivoli selezionati in idrovolanti. Infine, si confrontano i risultati ottenuti per i coefficienti di resistenza e per il peso massimo al decollo per quantificare il calo di prestazioni causato dalla presenza degli scarponi. Osservando come questo sia significativo, si conclude che l’impiego degli idrovolanti è destinato a rimanere limitato ai soli casi in cui le operazioni da specchi d’acqua non presentino altre alternative: questo a meno che non si riescano ad ideare nuove soluzioni costruttive in grado di risolvere le principali problematiche di questo tipo di velivolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi consiste nella realizzazione di fotocatalizzatori a base di nano-TiO2 per potenziali applicazioni nel campo della depurazione delle acque reflue. Nello specifico sono stati sintetizzati nanocompositi accoppiando nano-TiO2 a due materiali grafitici: ossido di grafene (GO), tramite ultrasonicazione (TGO) e nitruro di carbonio grafitico (g-C3N4), attraverso due tecniche: ultrasonicazione e polimerizzazione termica in situ. Per i compositi TGO lo studio relativo alla sintesi è stato rivolto all’ottimizzazione della percentuale in peso di GO. Per i compositi a base di g-C3N4 lo scopo è stato quello di valutare quale dei due metodi di sintesi fosse il più efficace. I materiali ottenuti sono stati caratterizzati dal punto di vista chimico-fisico (DLS-ELS, XRD, Band Gap, BET, SEM, FT-IR, TGA-DSC) e funzionale. La caratterizzazione funzionale è stata eseguita per valutare le prestazioni fotocatalitiche dei fotocatalizzatori nanocompositi utilizzando, come reazione modello, la fotodegradazione di Rodamina B, sotto luce UV e solare. I risultati hanno messo in luce che la percentuale ottimale di GO, nei compositi TGO, è pari al 16%. Inoltre, è stato osservato un effetto sinergico tra TiO2 e GO dove i nanocompositi TGO hanno mostrato maggiore attività fotocatalitiche rispetto alla singola TiO2. I dati fotocatalitici hanno evidenziato che il metodo ottimale per la preparazione dei compositi a base di g-C3N4 e TiO2, è la polimerizzazione termica in situ a 500°C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il principale obiettivo del seguente elaborato è quello di fornire una spiegazione introduttiva sul funzionamento delle fornaci solari, implementare la progettazione di una di queste, concentrandosi specialmente sulla analisi ottica e meno su ciò che concerne la chimica del reattore. In particolare vengono analizzate le prestazioni della fornace andando a variare dimensione e forma dello specchio primario a parità di focale, ottenendo così un'analisi del dispositivo in funzione del fattore di concentrazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fenomeno noto come Internet of Things costituisce oggi il motore principale dell'espansione della rete Internet globale, essendo artefice del collegamento di miliardi di nuovi dispositivi. A causa delle limitate capacità energetiche e di elaborazione di questi dispositivi è necessario riprogettare molti dei protocolli Internet standard. Un esempio lampante è costituito dalla definizione del Constrained Application Protocol (CoAP), protocollo di comunicazione client-server pensato per sostituire HTTP in reti IoT. Per consentire la compatibilità tra reti IoT e rete Internet sono state definite delle linee guida per la mappatura di messaggi CoAP in messaggi HTTP e viceversa, consentendo così l'implementazione di proxies in grado di connettere una rete IoT ad Internet. Tuttavia, questa mappatura è circoscritta ai soli campi e messaggi che permettono di implementare un'architettura REST, rendendo dunque impossibile l'uso di protocolli di livello applicazione basati su HTTP.La soluzione proposta consiste nella definizione di un protocollo di compressione adattiva dei messaggi HTTP, in modo che soluzioni valide fuori dagli scenari IoT, come ad esempio scambio di messaggi generici, possano essere implementate anche in reti IoT. I risultati ottenuti mostrano inoltre che nello scenario di riferimento la compressione adattiva di messaggi HTTP raggiunge prestazioni inferiori rispetto ad altri algoritmi di compressione di intestazioni (in particolare HPACK), ma più che valide perchè le uniche applicabili attualmente in scenari IoT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La forte espansione del mercato della mobilità elettrica degli ultimi anni ha portato sotto i riflettori nuove esigenze, tecnologie e problematiche per il Power Train di questi veicoli. L’attenzione all’affidabilità del motore elettrico è ormai al pari di quella verso prestazioni, efficienza e costi. Al fine di garantire una vita utile al motore congrua con quella del veicolo, che si attesta tra mediamente tra i 5 e i 10 anni, è necessario conoscere attentamente quali sono le criticità del sistema isolante (EIS) della macchina. All’interno di questo ambito, questa tesi si è concentrata sull’analisi dei diversi componenti che costituiscono l’EIS dello statore di un motore elettrico impiegato in una super car ibrida. Il primo passo è stato caratterizzare i sottocomponenti dello statore, a partire dai fili (Litz Wires) con cui sono realizzati i suoi avvolgimenti. I tempi di endurance dei fili sotto attività di scarica parziale (PD) nell'ordine dei minuti hanno dimostrato la necessità di operare in assenza di scariche. Per questo motivo è stato studiato l'andamento del PDIV sotto diverse forme d'onda e per provini invecchiati termicamente. Lo studio è stato poi esteso allo statore completo, sottoponendo l’EIS a cicli di invecchiamento, al fine di diagnosticare, attraverso prove elettriche, se le sue prestazioni restano accettabili per l’interezza della vita prevista dall’applicazione. In conclusione, sono state trattate le problematiche della qualifica dell’EIS completo di un motore elettrico. È stata proposta una soluzione per realizzare un sistema idoneo a sottoporre lo statore da invecchiare a stress elettrico e termico contemporaneamente. Gli studi effettuati in merito hanno dimostrato la fattibilità ed i benefici di questo sistema, permettendo di rispecchiare al meglio le condizioni di servizio della macchina, con l’obiettivo di perfezionare le attuali procedure di qualifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato ha l’obiettivo di fornire una panoramica piuttosto dettagliata sulla Telemedicina, le prestazioni erogabili in tale modalità ed il quadro normativo vigente, focalizzandosi sulla configurazione e presentazione di un software adibito all’erogazione di Televisite. Il primo capitolo assume un ruolo introduttivo nei confronti della Telemedicina, delle sue applicazioni, dei principali drivers, dei benefici e delle opportunità e dei rischi e delle criticità, correlati all’introduzione di prestazioni erogate in tale modalità. Il secondo capitolo si orienta inizialmente su un’analisi del quadro normativo vigente le prestazioni di Telemedicina, declinato su tre differenti livelli: Unione Europea, Italia ed Emilia-Romagna; proseguendo poi lo studio riguardo l’assetto normativo ed i requisiti necessari per la progettazione e la messa in commercio di un software sanitario. Il terzo capitolo si propone di presentare ed analizzare la configurazione di un software sanitario, attualmente attivo ed in commercio, adibito all’erogazione di Televisite, ossia un atto sanitario in cui il medico interagisce a distanza con il paziente. Si illustrano analiticamente le diverse prospettive degli attori coinvolti: la struttura sanitaria, il medico erogante ed il paziente ricevente la prestazione in modalità telematica. Ci si sofferma su tutti i processi volti alla corretta erogazione della Televisita: la struttura sanitaria è responsabile delle attività di configurazione di back office e delle procedure lato front office, il paziente della creazione dell’utenza web, della prenotazione e dell’accesso alla stanza virtuale ed il medico dell’accesso alla stanza virtuale, dell’erogazione della prestazione e della redazione del referto. Durante l’illustrazione delle procedure dalle diverse prospettive viene fornita anche un’analisi dell'applicativo, soffermandosi su alcune sue caratteristiche fondamentali, tipiche di un software sanitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi contribuisce allo sviluppo di una metodologia in silico, che può essere utilizzata sia come strumento clinico per la predizione del rischio di frattura, sia come strumento per la valutazione dell’efficacia di trattamenti farmacologici. Lo scopo di questo lavoro è di validare un modello di progressione dell’osteoporosi utilizzando dati clinici prospettici. Per fare ciò, è stata utilizzata una procedura già precedentemente validata da Bhattacharya et al. su una coorte retrospettica di Sheffield, con validazione effettuata unicamente per l’ARF0. In questo lavoro di tesi è stata intergata una legge di invecchiamento dell’osso e predetto il carico di rottura del femore ed il rischio di frattura fino a cinque anni successivi all’esecuzione della CT (ARF5). I risultati ottenuti sono poi stati confrontati con i dati reali, ovvero con le reali fratture che sono avvenute o meno nei pazienti reali oggetto dello studio. La validazione su una coorte prospettica ha evidenziato una discriminazione tra fratturati e non fratturati migliore rispetto a quella trovata per la coorte retrospettica. Tuttavia, l’ARF5 e l’ARF0, sui trentaquattro soggetti considerati, hanno delle prestazioni confrontabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la presente tesi di laurea si vuole analizzare la nuova procedura di ordini di “Scheduling Agreement” all’interno della realtà aziendale di ACMA S.p.A., azienda produttrice di macchine automatiche. Con il termine Scheduling Agreement si identifica una gestione di ordini con il fornitore, il quale mantiene i pezzi prodotti all’interno del proprio magazzino per massimo 18 mesi. L’accordo si basa sul principio per cui il fornitore ha una maggiore continuità di fornitura mentre ACMA S.p.A. vede un risparmio degli investimenti aziendali e nel tempo di approvvigionamento. Il principale focus dello studio verterà sulla proposta di soluzioni di stoccaggio per ricercare un punto di ottimo che permetta di ridurre al minimo il rischio di stock out e al tempo stesso minimizzi il livello delle scorte. L’analisi partirà con l’identificazione dei prodotti per cui risulta conveniente aprire uno Scheduling. Tale processo valutativo si estrinseca nell’analisi di due parametri fondamentali: frequenza e consumo. Verranno poi analizzati alcuni casi TO BE con il fine di trovare il Lead Time migliore per ridurre al minimo le giacenze ed evitare rotture di stock. Questi studi utilizzano il software di estrapolazione dati “SAP” per poi analizzarli sulla piattaforma Excel e forniscono una valutazione realistica nella gestione di tale procedura in ACMA S.p.A.. La soluzione conclusiva riesce a risolvere il problema di stock out introducendo la “scorta di sicurezza” calcolata sulla domanda futura. In particolare, utilizzando un Lead Time di approvvigionamento di 21 giorni si è riusciti a ridurre del 75% le scorte a magazzino rispetto al caso più cautelativo, mantenendo comunque basso il rischio di stock out. I risultati ottenuti forniranno un effettivo miglioramento delle prestazioni dell’azienda e il modello verrà sfruttato in futuro per l’applicazione iterativa della soluzione descritta, con risparmio di tempo e di fondi aziendali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato si suddivide essenzialmente in due parti principali. Una prima parte descrittiva dove vengono presentati i concetti fondamentali per la corretta comprensione della seconda, nella quale viene descritto il progetto svolto. Esso mira a valutare l’effetto che oggetti in metallo presenti in prossimità di un incrocio stradale hanno sulla propagazione del segnale radio, e in particolare sulla generazione di cammini multipli. I cammini multipli vengono infatti sfruttati dalle tecnologie di trasmissione a multiple antenne (MIMO) per incrementare la capacità di trasmissione. Un parametro sintetico che permette di caratterizzare le prestazioni dei sistemi MIMO è il cosiddetto Condition Number, che si è utilizzato in questo elaborato. Per effettuare lo studio delle prestazioni MIMO si sono utilizzate simulazioni elettromagnetiche a raggi (ray-tracing) e misure sperimentali, che sono state effettuate in prossimità del campus dell’Università Jiaotong di Shanghai, in Cina. Inizialmente, utilizzando una mappa standard dell’ambiente di propagazione, contenente i soli edifici, i valori di Condition Number ottenuti dalle simulazioni ray-tracing differivano notevolmente dai valori sperimentali. Il mio compito è stato quello di modellare nuovi elementi di forma cilindrica che ben simulano le proprietà fisico-geometriche dei pali e di altri oggetti metallici presenti lungo il tragitto e nelle intersezioni stradali e di inserirli nella mappa nella corretta posizione. Le simulazioni poi sono servite per valutare l’efficacia in termini di miglioramento delle prestazioni, in particolare sulla generazione di nuovi cammini sfasati nel tempo e nello spazio, e il relativo effetto sui valori numerici del condition number. Successivamente, è stata fatta una valutazione sull’influenza della vegetazione presente in loco per vedere quanta influenza abbia sul collegamento radio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.