141 resultados para Data mining, Business intelligence, Previsioni di mercato
Resumo:
La produzione di sedili auto rappresenta una delle principali applicazioni delle schiume poliuretaniche flessibili a bassa densità. La forte necessità di riduzione del peso totale del veicolo si traduce in una richiesta di significative riduzioni di densità dei materiali utilizzati per l’interno vettura. Tale riduzione deve tuttavia essere associata a migliorate proprietà, nel senso del mantenimento delle performance nel tempo, della sicurezza e del comfort. Ricerche di mercato hanno evidenziato la necessità di sviluppare schiume poliuretaniche con elevate performance in termini di comfort, associate a significative riduzioni di densità e significative riduzioni di spessori applicati, nell’ottica di produrre sedili sempre più sottili consentendo la massima flessibilità di design dell’interno del veicolo. Scopo del presente progetto è lo sviluppo di una nuova chimica associata a quella del poliuretano che permetta di ottenere un elevato comfort. Il corpo umano e maggiormente sensibile a vibrazioni con frequenza tra i 4 e gli 8 Hz. In questo intervallo di frequenze le vibrazioni trasmesse sono correlate con l’isteresi del materiale stesso. Solitamente basse isteresi sono associate a bassa trasmissività delle vibrazioni. I produttori di auto hanno quindi cominciato a valutare il comfort di un sedile in termini di isteresi del materiale stesso. Nel caso specifico è considerato un sedile confortevole se possiede una isteresi inferiore al 18%. Le performance in termini di comfort devono essere associate anche ad una bassa emissione di composti organici volatili, con particolare attenzione ad ammine e aldeidi, ad un 15% di riduzione di densità (l’obiettivo è raggiungere una densità di 60 g/L a fronte di una densità attuale che si colloca nel range 75-80 g/L), con proprietà fisico meccaniche e resistenza all’invecchiamento in grado di soddisfare i capitolati delle case automobilistiche. Recentemente la produzione di SMPs (silane-modified polymers) ricopre un ruolo fondamentale nel mercato dei sigillanti e degli adesivi. L’idea di utilizzare questa famiglia di silani nella produzione di schiume poliuretaniche flessibili risiede nel fatto che, esattamente come in sigillanti e adesivi, ci possa essere una reazione successiva a quella di formazione del PU che possa dare ulteriore reticolazione della frazione morbida. La reazione di post-curing del silano ha incontrato diverse problematiche relative alla scarsa reattività del silano stesso. Per attivare la reazione di idrolisi e oligomerizzazione si è utilizzato un acido di Brønsted (DBSA) ma l’interazione con le ammine presenti nel poliolo formulato, necessarie alla reazione di formazione del legame uretanico, ne hanno inibito l’attività.
Resumo:
Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.
Resumo:
Questa tesi tratta di scambio di dati aperti (open data exchange). In particolare, tratta di intervalli temporali con annesse informazioni di vario tipo. Le attività commerciali, come aziende, bar, ristoranti, cinema, teatri, e via dicendo, hanno bisogno di un modo comune per poter condividere i dati inerenti ai propri orari (timetable). Lo scopo di questa tesi è quello di mostrare un modello efficiente, compatto e completo per poter condividere tali informazioni con l'ausilio di formati standard (XML). Oggi giorno esistono diverse soluzioni atte a far fronte a questa necessità ma si tratta di soluzioni incomplete e che gestiscono tali informazioni separatamente. Il problema sorto è quello di avere un'unica struttura che posso unificare informazioni di diverso carattere con gli orari di un'attività: un cinema ha la necessità di fornire orari di diverse proiezioni svolte in sale diverse, una tournée dovrà poter specificare le coordinate geografiche del prossimo evento e così discorrendo.
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Data Distribution Management (DDM) is a core part of High Level Architecture standard, as its goal is to optimize the resources used by simulation environments to exchange data. It has to filter and match the set of information generated during a simulation, so that each federate, that is a simulation entity, only receives the information it needs. It is important that this is done quickly and to the best in order to get better performances and avoiding the transmission of irrelevant data, otherwise network resources may saturate quickly. The main topic of this thesis is the implementation of a super partes DDM testbed. It evaluates the goodness of DDM approaches, of all kinds. In fact it supports both region and grid based approaches, and it may support other different methods still unknown too. It uses three factors to rank them: execution time, memory and distance from the optimal solution. A prearranged set of instances is already available, but we also allow the creation of instances with user-provided parameters. This is how this thesis is structured. We start introducing what DDM and HLA are and what do they do in details. Then in the first chapter we describe the state of the art, providing an overview of the most well known resolution approaches and the pseudocode of the most interesting ones. The third chapter describes how the testbed we implemented is structured. In the fourth chapter we expose and compare the results we got from the execution of four approaches we have implemented. The result of the work described in this thesis can be downloaded on sourceforge using the following link: https://sourceforge.net/projects/ddmtestbed/. It is licensed under the GNU General Public License version 3.0 (GPLv3).
Resumo:
Tutte le attività che utilizzano acqua nel ciclo produttivo, inevitabilmente la sporcano, l'acqua che si prende pulita deve essere restituire "pulita". Basta pensare agli scarichi fognari: ognuno di noi prende a casa propria acqua pulita dall'acquedotto e la restituisce alla rete fognaria sporca. Pensiamo allo scarico della lavastoviglie, della lavatrice, della doccia e via di seguito. Gli impianti di depurazione sono quegli impianti che hanno il compito di depurare l'acqua, sia per il rispetto dei corpi ricettori allo scarico, sia per il possibile riutilizzo. Naturalmente le normative regolano la qualità dell'acqua e gli enti di controllo vigilano sul rispetto delle leggi. Ovviamente ogni carico inquinante insieme ai volumi giornalieri e agli spazi a disposizione, impone una scelta tecnica diversa per la depurazione. In un impianto di trattamento inerti, materiale di cava a basso valore di mercato, è importante riutilizzare ogni prodotto ricavato dal processo. Di seguito viene considerato il caso specifico dei limi di lavaggio inerti: “patata bollente” per tutte le aziende e soggetto di numerose discussioni in quanto è un argomento complesso da più punti di vista. Il materiale in esame, denominato “limo da lavaggio inerti”, rappresenta lo scarto della lavorazione degli inerti stessi provenienti dalle cave di ghiaia e sabbia in un impianto di produzione di inerti. Questi impianti eseguono sui materiali di cava le operazioni di macinazione, vagliatura, classificazione, slimatura e recupero dei fini. Dunque l’acqua, che proviene dai processi di macinazione, vagliatura e lavaggio del materiale, trascina con sé impurità di origine organica e argillosa, ma soprattutto finissimi in sospensione: i limi. Essi generano un inquinamento dell’acqua il cui aspetto visibile (la colorazione dell’acqua) è il meno pericoloso, infatti suddette sospensioni, dopo lo scarico delle torbide in fiumi, laghi o mare, generano depositi sulle rive che possono causare deviazioni del corso stesso nel caso dei corsi d’acqua; o ancor più grave la impermeabilizzazione dei terreni attraversati con le relative conseguenze in campo agricolo, e ancora il mancato approvvigionamento delle falde acquifere per l’impossibilità da parte dell’acqua superficiale di penetrare nel terreno. Essa dunque, necessita di trattamenti specifici per separare questi solidi in sospensione e consentirne il suo reimpiego nell’impianto stesso almeno in buona percentuale e di conseguenza la diminuzione di nuova acqua fresca necessaria. Per fortuna l’inquinamento è solo “fisico” e molto si può fare per ridurlo, esistono infatti macchinari specifici per eliminare dall’acqua gli elementi inquinanti e restituirla (quasi) limpida.
Resumo:
Partendo da un’analisi di mercato che si sviluppa meglio con una segmentazione, andremo ad analizzare il settore degli editori di videogiochi, le loro quote di mercato e come si stanno evolvendo per rimanere al passo con la tecnologia in un settore con forte competizione. Lo scopo di questa tesi è spiegare il successo della Take Two Interactive descrivendo la sua storia, le strategia che ha adottato negli anni per arrivare a competere con altri grandi editori e come si sta approcciando alle nuove tecnologie, all’evoluzione dei comportamenti d’acquisto dei consumatori e ai nuovi mercati emergenti.
Resumo:
La figura del designer detiene un ruolo chiave nella progettazione di un nuovo prodotto: a lui spetta l'importante compromesso fra scelte ingegneristiche, di mercato e di stile. Lo studio qui condotto analizza da un punto di vista qualitativo e quantitativo le linee di carattere che delineano il profilo base di un'autovettura, in riferimento al particolare segmento automobilistico ed al suo stile. In tal modo si vuole porre una base alla "genetica dello stile", ovvero la caratterizzazione matematica dello stile.
Resumo:
Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.
Resumo:
Lo studio delle malattie che colpiscono i coralli rappresenta un campo di ricerca nuovo e poche sono le ricerche concentrate nell’Oceano Indo-Pacifico, in particolare nella Repubblica delle Maldive. Lo scopo di questa ricerca è stato approfondire le conoscenze riguardo distribuzione, prevalenza e host range della Skeleton Eroding Band (SEB) nell’atollo di Faafu. Durante il lavoro, svolto in campo tra il novembre e il dicembre 2013, sono state indagate le isole di: Magoodhoo, Filitheyo e Adangau al fine di rilevare differenze nei livelli di prevalenza della SEB in relazione ai diversi gradi di utilizzo da parte dell’uomo delle 3 isole. Il piano di campionamento ha previsto la scelta casuale, in ciascuna delle isole, di 4 siti in cui sono stati realizzati 3 belt transect e 3 point intercept transect a 2 profondità predefinite. La SEB è stata ritrovata con una prevalenza media totale di 0,27%. Dai risultati dell’analisi statistica le differenze fra le isole non sono apparse significative, facendo ipotizzare che i livelli di prevalenza differiscano a causa di oscillazioni casuali di carattere naturale e che quindi non siano dovute a dinamiche legate al diverso sfruttamento da parte dell’uomo. I generi Acropora e Pocillopora sono risultati quelli maggiormente colpiti con valori di prevalenza totale di 0,46% e 1,33%. Infine è stata rilevata una correlazione positiva tra il numero di colonie di madrepore affette dalla SEB e il numero di colonie in cui la malattia è associata alla presenza di lesioni provocate da danni meccanici. I dati di prevalenza ottenuti e le previsioni di cambiamenti climatici in grado di aumentare distribuzione, host range, abbondanza della patologia, pongono l’accento sulla necessità di chiarire il ruolo delle malattie dei coralli nel deterioramento, resilienza e recupero dei coral reefs, al fine di attuare politiche di gestione adatte alla protezione di questi fragili ecosistemi.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.
Resumo:
a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.
Resumo:
This thesis presents a CMOS Amplifier with High Common Mode rejection designed in UMC 130nm technology. The goal is to achieve a high amplification factor for a wide range of biological signals (with frequencies in the range of 10Hz-1KHz) and to reject the common-mode noise signal. It is here presented a Data Acquisition System, composed of a Delta-Sigma-like Modulator and an antenna, that is the core of a portable low-complexity radio system; the amplifier is designed in order to interface the data acquisition system with a sensor that acquires the electrical signal. The Modulator asynchronously acquires and samples human muscle activity, by sending a Quasi-Digital pattern that encodes the acquired signal. There is only a minor loss of information translating the muscle activity using this pattern, compared to an encoding technique which uses astandard digital signal via Impulse-Radio Ultra-Wide Band (IR-UWB). The biological signals, needed for Electromyographic analysis, have an amplitude of 10-100μV and need to be highly amplified and separated from the overwhelming 50mV common mode noise signal. Various tests of the firmness of the concept are presented, as well the proof that the design works even with different sensors, such as Radiation measurement for Dosimetry studies.