141 resultados para Data mining, Business intelligence, Previsioni di mercato
Resumo:
A partire dalle caratteristiche chiave dell’inquinamento acustico, lo scopo della tesi è stato quello di valutare quantitativamente l’entità del rumore aeronautico prodotto dall'aeroporto Marconi e di analizzare le soluzioni tecniche e gestionali disponibili per definire misure adeguate alle caratteristiche infrastrutturali e operative dello scalo e capaci di mitigare il disturbo subito dalla popolazione. Si è tenuto conto delle profonde modificazioni in atto nel mondo dell’aviazione, il quale, avendo come obiettivo quello di fornire un servizio di trasporto sempre più sostenibile, efficace, competitivo e omogeneo sul territorio europeo, sollecita profonde innovazioni nei requisiti funzionali e tecnici. Inizialmente l’attenzione è stata rivolta alla descrizione del rumore aeronautico e del contesto in cui è inserito, soffermandosi sul concetto di sostenibilità di un’infrastruttura di trasporto. Si è proseguito con un'analisi dettagliata della normativa vigente, italiana ed europea, al fine di affrontare gli aspetti legislativi del problema e di delineare le line guida per la valutazione del rumore. Segue uno studio, dal punto di vista tecnico e infrastrutturale, dell’evoluzione della navigazione aerea e del concetto innovativo di performance based navigation, focalizzando l’interesse sul curved approach, procedura di avvicinamento non convenzionale. L'attenzione è stata, poi, dedicata alla descrizione del caso di studio e alla presentazione della metodologia usata. Mediante il supporto dell’INM, sono state determinate le curve isofoniche, quantificando la popolazione esposta a specifici livelli di rumore aeronautico per lo scenario consuntivo dell’anno 2015. Infine, sono state eseguite simulazioni future, sulla base delle previsioni di crescita del volume di traffico aereo, per definire un limite massimo per lo sfruttamento del sistema ILS in testata 30 e per valutare il beneficio generato dall’introduzione del curved approach.
Resumo:
Lo scopo del progetto Bird-A è di mettere a disposizione uno strumento basato su ontologie per progettare un'interfaccia web collaborativa di creazione, visualizzazione, modifica e cancellazione di dati RDF e di fornirne una prima implementazione funzionante. La visione che sta muovendo la comunità del web semantico negli ultimi anni è quella di creare un Web basato su dati strutturati tra loro collegati, più che su documenti. Questo modello di architettura prende il nome di Linked Data ed è basata sulla possibilità di considerare cose, concetti, persone come risorse identificabili tramite URI e di poter fornire informazioni e descrivere collegamenti tra queste risorse attraverso l'uso di formati standard come RDF. Ciò che ha però frenato la diffusione di questi dati strutturati ed interconnessi sono stati gli alti requisiti di competenze tecniche necessarie sia alla loro creazione che alla loro fruizione. Il progetto Bird-A si prefigge di semplificare la creazione e la fruizione di dati RDF, favorendone la condivisione e la diffusione anche fra persone non dotate di conoscenze tecniche specifiche.
Resumo:
Internet è la rete globale a cui si può avere accesso in modo estremamente facile, consentendo praticamente a chiunque di inserire i propri contenuti in tempi rapidi, a costi quasi nulli e senza limitazioni geografiche. Il progresso tecnologico e la maggiore disponibilità della banda larga, uniti alle nuove modalità di fruizione ed ai nuovi format, hanno portato ben il 70% degli web users a vedere video online regolarmente. La popolarità dei servizi di streaming video è cresciuta rapidamente, tanto da registrare dei dati di traffico impressionanti negli ultimi due anni. Il campo applicativo della tesi è Twitch, il più celebre servizio di streaming che è riuscito ad imporsi come quarto sito negli Stati Uniti per traffico Internet: un dato sorprendente se pensiamo che si occupa solo di videogiochi. Il fenomeno Twitch è destinato a durare, lo dimostrano i 970 milioni di dollari investiti da Amazon nel 2014 per acquistare la piattaforma, diventata così una sussidiaria di Amazon. L'obiettivo della tesi è stato lo studio di mercato della piattaforma, attraverso il recupero e l'analisi delle informazioni reperibili in letteratura, nonché attraverso estrapolazione di dati originari mediante le API del sito. Si è proceduto all’analisi delle caratteristiche del mercato servito, in termini di segmentazione effettiva, rivolta alla messa in evidenza della possibile dipendenza dai comportamenti dei player, con particolare attenzione alla possibile vulnerabilità.
Resumo:
Internet e il Web rappresentano una risorsa informativa immensa, utilizzabile anche per compiere indagini di mercato, soprattutto a fronte di nuovi fenomeni di consumo. Un caso emergente è rappresentato dai servizi di video streaming. La piattaforma presa in considerazione dal mio studio di analisi è Twitch, leader nel segmento di mercato dei video-giochi. Attraverso di essa milioni di follower seguono in tempo reali i comportamenti di gioco di migliaia di player, fra i quali i principali campioni mondiali di e-sports. La tesi ha esaminato, attraverso lo studio di fonti di letteratura e di mercato, le principali caratteristiche di relazione degli utenti. Su tale base è stato definito un campione attraverso uso delle API del sito, oggetto di studio finalizzato alla comprensione dei comportamenti di scelta da parte dei follower. Fra i vari esiti, emerge confermata la presenza e tutti i livelli di analisi della distribuzione power-law, tipica anche di Internet nel suoi complesso.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.
Resumo:
Analisi degli scenari applicativi in ambiente Home Manager e progettazione, implementazione e collaudo di alcune delle funzionalità proposte.
Resumo:
Il buon funzionamento di una qualsiasi tipologia di motore prevede l’utilizzo di un componente che abbia il compito di lubrificare le parti meccaniche in movimento, come, ad esempio, l’olio motore per l’automobile. Un fattore determinante nella scelta dell’olio è la variazione della sua viscosità in relazione alla variazione di temperatura, poiché la temperatura di esercizio di un macchinario è solitamente diversa dalla temperatura di avviamento. Tale valore viene identificato in maniera assoluta dal Viscosity Index (VI). L’olio motore è una formulazione complessa in cui sono presenti l’olio base ed una serie di additivi, tra cui molto importante è il modificatore di viscosità (Viscosity Index Improver, VII), che migliora il VI e permette di utilizzare lo stesso olio a basse ed alte temperature (olio multigrade). Come VII possono essere utilizzate diverse tipologie di polimeri solubili in olio, che variano per caratteristiche e target di mercato. La famiglia presa in esame in questa tesi è quella delle poli-alfa-olefine, utilizzate prevalentemente con oli base minerali, e più precisamente copolimeri etilene/propilene. Sono state analizzate le proprietà che questa famiglia ben nota di OCP (Olefin CoPolymer) ingenera nel sistema base-polimero. In particolare si è cercato di correlare le proprietà molecolari del polimero (composizione, peso molecolare e paracristallinità) con le proprietà “tecnologico-applicative” di ispessimento, stabilità meccanica al taglio, punto di non scorrimento, avviamento a freddo, pompabilità a freddo. L’attività è proseguita con la progettazione di un modello fisico, con l’obiettivo di predire il comportamento tecnologico del sistema olio-polimero in funzione delle proprietà molecolari di polimeri appartenenti alla classe delle poli-alfa-olefine lineari, esaminando anche le proprietà tecnologiche di un omopolimero sperimentale.
Resumo:
I convertible bonds sono degli strumenti finanziari che conferiscono al suo possessore la facoltà di scegliere se, una volta scaduta l'obbligazione, essere rimborsato tramite una somma di denaro (valore nominale) oppure convertire l'obbligazione in un numero predefinito di azioni. Successivamente si è trattato l’argomento della tesi, i reverse convertible bonds. Queste obbligazioni sono simili ai convertible bonds con la differenza che in tal caso il diritto di scegliere se convertire o meno l'obbligazione in azioni è lasciato all'emittente e non al sottoscrittore. I reverse convertible si ottengono dalla combinazione di un coupon bond ordinario (senza l'opzione di conversione) a breve termine e di un'opzione put sulle azioni sottostanti. E' stata analizzata la formula di valutazione dei reverse convertible bonds, data dalla differenza tra il prezzo di un coupon-bond ordinario emesso dalla stessa società e il prezzo di un'opzione put (quest'ultimo moltiplicato per il rapporto di conversione, ossia per il numero di azioni che si ottengono dalla conversione di ciascuna obbligazione convertibile). E’ stata poi fatta un’analisi empirica dei prezzi dei reverse convertible bonds. Sono stati calcolati i prezzi di 7 reverse convertible utilizzando i dati forniti dal database finanziario e macroeconomico, Thomson Reuters Datastream.I prezzi calcolati sono stati poi confrontati con i prezzi di mercato di tali obbligazioni relativamente allo stesso istante temporale, il giorno 6/6/2016.
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
Data la sempre maggiore richiesta di fabbisogno energetico, si è sviluppata una nuova filosofia nella gestione dei consumi energetici, il DSM (demand side management), che ha lo scopo di incoraggiare il consumatore ad usare energia in modo più intelligente e coscienzioso. Questo obiettivo, unito all’accumulo di energia da fonti rinnovabili, permetterà un abbassamento dell’utilizzo dell’energia elettrica proveniente dal consumo di fonti non rinnovabili e altamente inquinanti come quelle a combustibili fossili ed una diminuzione sia del consumo energetico, sia del costo per produrre energia che dell’energia stessa. L’home automation e la domotica in ambiente domestico rappresentano un esempio di DSM. L’obiettivo di questa tesi è quello di creare un sistema di home automation utilizzando tecnologie opensource. Sono stati utilizzati device come board Arduino UNO, Raspberry Pi ed un PC con sistema operativo GNU/Linux per creare una simulazione di un sistema di home automation abbinato alla gestione di celle fotovoltaiche ed energy storaging. Il sistema permette di poter spegnere un carico energetico in base a delle particolari circostanze come, per esempio, il superamento di una certa soglia di consumo di energia elettrica. Il software utilizzato è opensource e mira a poter ottimizzare il consumo energetico secondo le proprie finalità. Il tutto a dimostrare che si può creare un sistema di home automation da abbinare con il presente e futuro delle fonti rinnovabili utilizzando tecnologie libere in modo tale da preservare privacy e security oltre che customizzazione e possibilità di adattamento a diverse circostanze. Nella progettazione del sistema è stato implementato un algoritmo per gestire varie situazioni all’interno di un ambiente domestico. La realizzazione di tale algoritmo ha prodotto ottimi risultati nella raggiungimento degli obiettivi prefissati. Il progetto di questa tesi può essere ulteriormente ampliato ed il codice è reperibile in un repository pubblico.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
L’elaborato è incentrato sullo studio di una bicicletta pieghevole innovativa attraverso i metodi dell’Ingegneria Industriale. All’interno del moderno contesto urbano, la bicicletta pieghevole rappresenta una soluzione valida per quegli utenti che cercano un mezzo versatile, autonomo, economico, compatto e adatto alla nuova mobilità intermodale. Negli ultimi anni i costruttori di pieghevoli si trovano a dover soddisfare le richieste di una clientela sempre più consapevole e attenta, cercando di proporre prodotti che siano in grado di combinare praticità e prestazioni, con particolare attenzione al dettaglio e all’immagine. Lo scopo di questo progetto è quello di disegnare un mezzo a propulsione muscolare che sia in grado di offrire la migliore esperienza d’uso possibile. Attraverso un’attenta analisi di mercato tramite il metodo del Quality Function Deployment si individuano le caratteristiche chiave del prodotto e si indirizza la fase di progettazione, portata avanti attraverso l’impostazione tecnica del prodotto il disegno di un meccanismo di piega inedito. Successivamente si passa alla definizione delle geometrie e alla realizzazione dello stile tramite la costruzione di un modello 3D al CAD, a cui segue una fase di analisi strutturale col Metodo degli Elementi Finiti, secondo le prove previste dalla normativa europea per la sicurezza delle biciclette, che porta al re-design alla validazione del prodotto finale.
Resumo:
L’obiettivo di questa trattazione è quello di illustrare il processo di realizzazione di una nuova macchina tagliaerba. L’azienda ospitante, Grillo S.p.A., ha permesso di prendere parte attivamente alla realizzazione di un loro nuovo prodotto. Il trattorino tagliaerba in questione appartiene alla tipologia “Zero-Turn” (raggio di sterzata zero) ed è completamente elettrico. Poiché la macchina è già prodotta dalla concorrenza da circa cinque anni, l’obiettivo aziendale è quello di realizzare un articolo robusto e adatto alle esigenze di semi-professionisti, con un prezzo accattivante in modo da accaparrarsi una parte di mercato ancora scoperta. Proprio per differenziarsi, l’idea è di fornire accessori utili all’utente, ancora non presenti su macchine concorrenti. A tal fine, è stato progettato un frustino tagliabordi, installabile come optional nel macchinario, adatto a compensare la problematica insita nei tagliaerba con piatto di taglio centrale che hanno difficoltà nel consentire di contornare alberi, piante e cordoli. Il prodotto consente altresì di tagliare piccole rive o fossi, grazie all’inclinazione regolabile. Sempre nell’ottica della realizzazione di un prodotto innovativo e competitivo, si è deciso di progettare un layout diverso dagli articoli della concorrenza, caratterizzato dalla presenza di un solo motore che aziona le due lame mediante una cinghia di trasmissione.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto del trattamento con campi elettrici pulsati sulla funzionalità delle proteine e sul livello di ossidazione lipidica e proteica di filetti di branzino (Dicentrarchus labrax) durante 12 giorni di conservazione refrigerata. A tale scopo, un totale di 50 filetti è stato sottoposto a salagione mediante salamoia contenente il 5% di NaCl per 24 ore e successivamente diviso in 2 gruppi sperimentali (n=25/gruppo): CONT, filetti non sottoposti a trattamento e PEF, filetti trattati con campi elettrici pulsati aventi intensità di 0,6 kV/cm, ampiezza degli impulsi di 10 μs per un tempo totale di trattamento pari a 10 s. I filetti sono stati confezionati in atmosfera protettiva (20% di CO2 e 80% di N2) e conservati a temperatura di refrigerazione per i 12 giorni successivi. Nel complesso, i risultati ottenuti suggeriscono come il trattamento PEF non abbia esercitato un effetto né migliorativo né peggiorativo sulla funzionalità delle proteine, determinata tramite analisi della solubilità, risultato piuttosto inatteso data la potenzialità del PEF di migliorare la funzionalità proteica. Si può ipotizzare che il processo di salatura a cui sono stati sottoposti i campioni possa avere in qualche modo mascherato un possibile effetto positivo del trattamento a causa della solubilizzazione delle proteine avvenuta già in fase di salatura. Inoltre, nonostante il PEF possa innescare fenomeni ossidativi a carico della matrice lipidica e proteica, in questo studio non sono state osservate modificazioni, suggerendo come il trattamento non abbia alterato la stabilità ossidativa dei filetti. In conclusione, i risultati ottenuti nel presente studio sono da considerarsi positivi, in quanto è possibile evincere come il trattamento effettuato abbia consentito di migliorare le rese di processo, senza però influenzare la stabilità ossidativa di lipidi e proteine, lasciando quindi inalterata la funzionalità delle stesse.