795 resultados para analisi di Fourier, mercati elettrici.
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
Il Supply Chain Management è una rete di strutture che producono materie prime e le trasformano in prodotti finiti da consegnare ai clienti. Per gestire in maniera efficace l’impresa, l’intera struttura della catena di approvvigionamento deve seguire il flusso aziendale correttamente, in modo da non creare rallentamenti nella fornitura e causare problemi al soddisfacimento dei bisogni del cliente. Questo elaborato analizza tutte le componenti che influiscono sul successo di una supply chain, in particolare la funzione strategica degli acquisti, evidenziandone le principali problematiche che si possono riscontrare e le soluzioni che invece si possono applicare. Gli acquisti, che nascono dalla richiesta di un bisogno da soddisfare, sono da considerarsi un vantaggio competitivo e di redditività per un’azienda, in quanto incidono direttamente sul fatturato totale, motivo per cui sono stati oggetto dello studio. L’acquisto deve rispecchiare le specifiche tecniche e funzionali richieste, al fine di soddisfare i bisogni del cliente. Analizzando tale reparto presso l’azienda Termotecnica Industriale S.r.l., una Piccola Media Impresa (PMI) che si occupa di progettazione, fabbricazione ed installazione di caldaie industriali e generatori di vapore a recupero di calore, si è ricercato un nuovo modello di approvvigionamento da seguire. L’obiettivo di questa analisi è di sviluppare una strategia aziendale che gestisca in maniera corretta la catena di fornitura, ottenendo migliori condizioni contrattuali ed evitare problemi come gli acquisti a collo di bottiglia. E’ stato necessario, individuare una nuova metodologia che aiutasse i buyer a instaurare il giusto rapporto col fornitore selezionato, in funzione all’acquisto che si sta per compiere. Infatti per ogni tipologia di approvvigionamento ci sono approcci differenti da utilizzare con i fornitori per ottenere delle agevolazioni rispetto a quanto offerto in precedenza dello stesso.
Resumo:
L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
Le galassie sono gli elementi fondamentali dell’Universo: alcune hanno una struttura abbastanza semplice, altre, invece, sono sistemi complessi costituiti prevalentemente da stelle, nubi di gas e polveri. Protagoniste di questo elaborato sono le galassie ellittiche che verranno analizzate dapprima dal punto di vista morfologico, introducendo brevemente la sequenza proposta da Hubble per la classificazione di tutte le galassie, per poi passare ad una analisi di tipo fotometrico attraverso le leggi fondamentali che valgono per le galassie ellittiche. Infine, nell’ultimo capitolo, che rappresenta l’anima di questo testo, si tratteranno i principali meccanismi che partecipano all’ emissione della radiazione elettromagnetica nella banda ottica, X e radio.
Resumo:
In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.
Resumo:
L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Il presente elaborato propone la sottotitolazione e la conseguente analisi di un episodio della serie animata russa per bambini "Troe iz Prostokvašino". In particolare, vengono analizzate le caratteristiche principali relative alla traduzione audiovisiva e alle produzioni per l'infanzia, con particolare riguardo per il settore dei cartoni animati. Vengono inoltre illustrati i problemi riscontrati e le scelte effettuate durante il processo traduttivo.
Resumo:
Questo progetto di Tesi si propone come obiettivo la valutazione della convenienza economica ed ambientale di un Gruppo di Autoconsumo Collettivo da fonti rinnovabili. Per fare ciò, è stata necessaria un’attenta fase di analisi delle normative italiane ed europee attualmente in vigore, in modo da stabilire i requisiti necessari per accedere a questo tipo di configurazione. Successivamente si è iniziata una simulazione tecnico-economica del progetto. Inizialmente è stata proposta l’installazione di un impianto fotovoltaico di potenza 48 kWp e ne è stata calcolata la produzione media annua; in secondo luogo, grazie ai dati forniti dagli attori, è stato possibile effettuare una stima dei consumi annuali di tutto il Gruppo. Infine, sono stati combinati i dati di produzione e consumo per ricavare le quote di autoconsumo e di energia condivisa. Per concludere, tramite i dati estrapolati in precedenza, è stata effettuata una analisi economica dell’investimento, dimostrandone la convenienza, a cui è stata aggiunta una analisi di sensitività per dimostrare la resilienza del progetto verso il cambiamento di alcune ipotesi iniziali.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
L’elaborato è incentrato sullo studio di una bicicletta pieghevole innovativa attraverso i metodi dell’Ingegneria Industriale. All’interno del moderno contesto urbano, la bicicletta pieghevole rappresenta una soluzione valida per quegli utenti che cercano un mezzo versatile, autonomo, economico, compatto e adatto alla nuova mobilità intermodale. Negli ultimi anni i costruttori di pieghevoli si trovano a dover soddisfare le richieste di una clientela sempre più consapevole e attenta, cercando di proporre prodotti che siano in grado di combinare praticità e prestazioni, con particolare attenzione al dettaglio e all’immagine. Lo scopo di questo progetto è quello di disegnare un mezzo a propulsione muscolare che sia in grado di offrire la migliore esperienza d’uso possibile. Attraverso un’attenta analisi di mercato tramite il metodo del Quality Function Deployment si individuano le caratteristiche chiave del prodotto e si indirizza la fase di progettazione, portata avanti attraverso l’impostazione tecnica del prodotto il disegno di un meccanismo di piega inedito. Successivamente si passa alla definizione delle geometrie e alla realizzazione dello stile tramite la costruzione di un modello 3D al CAD, a cui segue una fase di analisi strutturale col Metodo degli Elementi Finiti, secondo le prove previste dalla normativa europea per la sicurezza delle biciclette, che porta al re-design alla validazione del prodotto finale.
Resumo:
Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.