1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
Recentemente si è assistito ad un rinnovato interesse per l’impiego dei dirigibili. Questa tesi tratta sia aspetti storici, visto che si ripercorre l’evoluzione del mezzo dai primi anni del ‘900 ad oggi, sia aspetti tecnici, con l’illustrazione dei principi fisici alla base del funzionamento dei dirigibili. In particolare la tesi verte sui seguenti argomenti: * Storia del dirigibile, dagli albori fino ai giorni nostri, e breve descrizione dei più famosi modelli e delle imprese esplorative compiute. * Fisica, tipologie e componenti principali presenti in una aeronave. * Analisi comparativa dei dati, delle prestazioni e delle caratteristiche di circa cinquanta modelli sia del presente che del passato, con diagrammi di dispersione commentati.
Resumo:
Breve introduzione sui radar, sistemi Ultra WideBand, controlli non distruttivi e progettazione di un banco di prova per radar UWB per l'analisi non distruttiva dei danni sui materiali compositi.
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica
Resumo:
La tesi ha l'obiettivo di studiare la tecnica di controllo passivo dell'isolamento sismico, comprenderne il funzionamento e applicarla ad un caso di studio (nello specifico un fabbricato ad uso civile abitazione costituito da 7 piani fuori terra) svolgendo le verifiche previste dal D.M. 14/01/08 e dalla Circolare 02/02/2009-
Resumo:
Nella Regione Emilia-Romagna, la zona delle conoidi ha una valenza strategica essendo la principale fonte di approvvigionamento idropotabile per le utenze civili, oltre che sostegno per le attività industriali ed agricole. All’interno di questo contesto ci si è soffermati sulla provincia di Piacenza, scegliendo come aree di studio le Conoidi del Trebbia e dell’Arda, per valutare le dinamiche di ricarica naturale attraverso l’identificazione della relazione che intercorre fra (i) l’entità dei deflussi superficiali riferiti ai corsi idrici che alimentano le conoidi, e (ii) il livello piezometrico nei rispettivi acquiferi. L’analisi è stata condotta applicando il modello Auto-Regressive Distributed Lag (ARDL).
Resumo:
La presente tesi nasce dal desiderio di effettuare un confronto tra due lingue dei segni che possiedono un'origine comune: la lingua dei segni italiana (LIS) e la langue des signes française (LSF). Si è cercato di capire quanto queste ultime possano essere analoghe tutt'oggi effettuando un confronto tra le loro principali strutture sintattiche, dopo aver passato in rassegna gli avvenimenti storici ed i provvedimenti legislativi più influenti in entrambi i paesi. La pecularietà di questa tesi risiede essenzialmente nel suo carattere inedito poiché finora nessun confronto del genere era stato realizzato tra queste due lingue. Nel primo capitolo, si è deciso di passare in rassegna le varie definizioni proposte dall'OMS circa l'handicap e la disabilità in modo da distinguere due concetti che spesso vengono considerati sinonimi. Vediamo inoltre quanto è importante l'impatto dell'ambiente circostante e della società nei confronti dell'handicap, dopodiché viene rivolta particolare attenzione alla sordità. Nel secondo capitolo, ripercorriamo i sentieri della storia, dai pensatori dell'Antichità fino al giorno d'oggi, al fin di vedere quali sono state le varie correnti di pensiero riguardo la sordità e le lingue dei segni attraverso i secoli. In seguito, ci focalizziamo sull'aspetto legislativo riportando i vari disegni di legge e provvedimenti legislativi che hanno segnato un decisivo progresso nel campo del riconoscimento delle lingue dei segni in Francia ed in Italia. Nel terzo capitolo, dopo una breve introduzione sulle lingue dei segni, vengono scomposti i parametri formazionali della LIS e della LSF, soffermandoci sulle differenze circa la dattilologia e le configurazioni in LSF e in LIS. Infine, viene effettuato il confronto tra le principali strutture sintattiche in LSF e in LIS allo scopo di verificare l'ipotesi alla base della presente tesi. Dopo aver esposto l'obiettivo, ciò che emerge dal confronto, sebbene vi siano alcune piccole differenze, conferma l'ipotesi all'origine della ricerca.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
L’obiettivo della tesi, sviluppata presso l’azienda Onit Group s.r.l., è stato quello di realizzare un sistema d’analisi what-if che consenta di effettuare valutazioni economiche in maniera rapida, precisa, ed in totale autonomia. L’applicativo sviluppato, richiesto dalla direzione commerciale dall’azienda Orogel, ha il compito di assegnare percentuali di premio agli acquisti effettuati dai clienti su determinate famiglie di vendita. Il programma è il primo progetto di tipo data entry sviluppato nel reparto di Business Unit Data Warehouse e Business Intelligence di Onit e offre una duplice utilità. Da un lato semplifica la gestione dell’assegnamento dei premi annuali che ogni anno sono rinegoziati, su cui l’utente della direzione commerciale può fare delle stime sulla base dei premi definiti l’anno precedente. D’altra parte rendere la direzione commerciale di Orogel più autonoma offrendo all’utenza un unico ambiente su cui muoversi.
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna
Resumo:
1 Progettare un sistema di raccolta e tracciabilità dei RAEE innovativo e replicabile 2 Dimostrare il possibile incremento della raccolta differenziata dei RAEE 3 Analizzare numericamente le Performance 4 Evidenziare i risultati ottenuti dalla raccolta 5 Sviluppi futuri volti a favorire la diffusione del modello ideato e sperimentato
Resumo:
Questa tesi si propone di realizzare una caratterizzazione del polimero ABS ottenuto con tecnica Fused Deposition Modeling in modo da ottenere dati utili alla realizzazione di parti strutturali tramite rapid prototyping.