147 resultados para analisi convessa ottimizzazione dualità sottodifferenziale lagrangiana sella problema minimo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Attraverso questa tesi si vuole mostrare il valore aggiunto che i sistemi di immagazzinamento automatico della merce possono offrire alle aziende, facendo un focus particolare sulle aziende manifatturiere. La scelta di approfondire questa tematica nasce dall’esperienza di tirocinio svolta all’interno di Automobili Lamborghini S.p.A. situata a Sant’Agata Bolognese (Bologna), nota in tutto il mondo per la produzione di Super Sport Cars. Partendo dall'introduzione dell'order picking e delle tipologie di magazzini esistenti, si passerà all'introduzione di algoritmi per il posizionamento dei codici all'interno di un magazzino. Una volta introdotto il problema dello stoccaggio dei codici di normaleria all'interno di un magazzino, verrà identificata la soluzione implementata in Automobili Lamborghini.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di mostrare le potenzialità e le possibili soluzioni dell’Additive Manufacturing per l’ottimizzazione di macchine elettriche in risposta al problema delle terre rare. Nel primo capitolo viene presentato lo stato dell’arte dell’Additive Manufacturing mostrando una rapida panoramica delle sue caratteristiche principali, le potenzialità future e i settori di utilizzo. Il secondo capitolo propone le principali tecniche di Stampa 3D per la realizzazione di oggetti evidenziando di ognuna i pregi e i difetti. All’interno del terzo capitolo, viene illustrata la struttura di una macchina elettrica mostrando le varie componenti e presentando delle possibili ottimizzazioni realizzate tramite Additive Manufacturing. Nel quarto capitolo vengono presentati esempi di macchine elettriche complete realizzate attraverso le tecniche dell’Additive Manufacturing. Nel quinto capitolo vengono confrontati un Interior Permanent Magnets motor e un Synchronous Relectance Machine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato è stato svolto all'interno della Marchesini Group, nell'Headquarter di Pianoro al secondo piano nell'ufficio analisi ordini. Nella prima parte di questo documento è stata fatta una profonda analisi di quello che è il contesto industriale di riferimento, packaging farmaceutico, dell'industria 4.0 e di come l'Azienda si approccia a tutto ciò. Prosegue con una breve descrizione dell'azienda e delle normative di rifermento. Nella seconda parte dell'elaborato è stata svolta una profonda analisi del processo che va dalla ricezione dell'ordine alla spedizione della macchina/linea al cliente, quindi dell'intero ciclo di vita della commessa. Attraverso questa analisi sono state analizzate le criticità delle diverse attività svolte, da diverse risorse e gli strumenti, utilizzati, attraverso cui vengono portate a termine. La figura del Project coordinator, la scheda prodotto, la macro-pianificazione e il cruscotto sono gli elementi che sono stati maggiormente analizzati. Sono stati analizzati i loro punti deboli e proposte soluzioni migliorative. E' stato analizzato il modo di introdurle e valutato il loro impatto a livello economico nel breve periodo. Alla fine c'è una piccola considerazione su quali aspetti andrebbero ulteriormente approfonditi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A seguito di un’esigenza esplicitata della Divisione IMA Ilapak Lugano, il team del PaLM Entreprise ha creato il Modulo Segnalazione Modifiche (MSM) con lo scopo di standardizzare e strutturare il flusso informativo relativo alle modifiche della distinta base dagli uffici tecnici a quelli della logistica e produzione. La prima analisi effettuata è stata incentrata sulla situazione AS-IS e sul primo applicativo che utilizzava Ilapak Lugano, il Segnalazione Modifiche (SM). Dopo aver appreso il funzionamento del vecchio SM, sono emerse diverse criticità come la scarsa integrazione con la piattaforma PaLM e con gli altri sistemi che conducevano a problemi di trasmissione di informazione tra gli uffici e ad errori nel recupero delle modifiche corrette. Dopo differenti riunioni tra i due team sono state concordate le prime specifiche. Successivamente l’elaborato procede con un’analisi della situazione TO-BE, descrivendo le caratteristiche ed i vantaggi del MSM. Uno dei principali benefici è che il Modulo è perfettamente integrato all’interno del PaLM e con tutti i sistemi PDM e CAD. Tutto ciò permette di migliorare la comunicazione e la collaborazione tra i vari dipartimenti, in special modo tra gli uffici tecnici e la logistica e con i fornitori. La terza ed ultima analisi è, invece, una valutazione economica: vengono calcolati i costi della situazione AS-IS, quelli della TO-BE e, in seguito, viene fatta un’analisi costi/benefici, confrontando i due scenari. Attraverso l’implementazione del MSM, si ottengono i seguenti risultati: non solo si ottiene una riduzione dei costi, ma anche un risparmio importante di tempo per gli operatori. Ilapak Lugano è risultata essere la portavoce di un progetto che, in realtà, molte altre Divisioni IMA desiderano. Senza dubbio, il fine ultimo del progetto del MSM è quello di introdurlo in quante più Divisioni possibili, rendendolo un modulo indispensabile all’interno dell’azienda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'avanzamento dell'e-commerce e l'aumento della densità abitativa nel centro città sono elementi che incentivano l'incremento della richiesta merci all'interno dei centri urbani. L'attenzione all'impatto ambientale derivante da queste attività operative è un punto focale oggetto di sempre maggiore interesse. Attraverso il seguente studio, l'obiettivo è definire attuali e potenziali soluzioni nell'ambito della logistica urbana, con particolare interesse alle consegne dell'ultimo miglio. Una soluzione proposta riguarda la possibilità di sfruttare la capacità disponibile nei flussi generati dalla folla per movimentare merce, pratica nota sotto il nome di Crowd-shipping. L'idea consiste nella saturazione di mezzi già presenti nella rete urbana al fine di ridurre il numero di veicoli commerciali e minimizzare le esternalità negative annesse. A supporto di questa iniziativa, nell'analisi verranno considerati veicoli autonomi elettrici a guida autonoma. La tesi è incentrata sulla definizione di un modello di ottimizzazione matematica, che mira a designare un network logistico-distributivo efficiente per le consegne dell'ultimo miglio e a minimizzare le distanze degli attori coinvolti. Il problema proposto rappresenta una variante del Vehicle Routing Problem con time windows e multi depots. Il problema è NP-hard, quindi computazionalmente complesso per cui sarà necessario, in fase di analisi, definire un approccio euristico che permetterà di ottenere una soluzione sub-ottima in un tempo di calcolo ragionevole per istanze maggiori. L'analisi è stata sviluppata nell'ambiente di sviluppo Eclipse, attraverso il risolutore Cplex, in linguaggio Java. Per poterne comprendere la validità, è prevista un'ultima fase in cui gli output del modello ottimo e dell'euristica vengono confrontati tra loro su parametri caratteristici. Bisogna tuttavia considerare che l' utilizzo di sistemi cyber-fisici a supporto della logistica non può prescindere da un costante sguardo verso il progresso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

HP Composites, azienda leader nella produzione di componenti in fibra di carbonio, a seguito della crescita di ordini commissionati dai suoi clienti, ha deciso di affidare a dei fornitori la produzione di alcune commesse, in alcune o in tutte le fasi del loro ciclo. L’elaborato di tesi nasce da un’esperienza di tirocinio nell’ufficio pianificazione di HP Composites, e si pone l’obiettivo di analizzare tutte le attività che, evitando di dedicare risorse alle lavorazioni selezionate, deve compiere per supportare il fornitore; l’analisi è stata effettuata tramite la costruzione di un diagramma di flusso e fornendo un indicazione del tempo richiesto da ogni attività, per poi poi avanzare delle proposte di ottimizzazione. Il ciclo commessa può essere suddiviso in quattro fasi: scelta della commessa e selezione del fornitore, attivazione del fornitore, gestione settimanale dell’evasione degli ordini e gestione del fine commessa. L’ufficio acquisti nel tempo si è specializzato individuando i temi da chiarire prima di attivare la fornitura per evitare l’insorgere di problematiche a produzione già attivata. Per quanto riguarda la gestione settimanale del fornitore, è stato istituito il ruolo del responsabile delle esternalizzazioni, una figura che funga da intermediario con il fornitore e monitori la produzione esterna: questa figura apporta un'alta quantità di interazioni, ma HP valuta maggiori i vantaggi di questa gestione centralizzata. Inoltre nel tempo le attività pianificazione sono state ottimizzate grazie alla stesura di file precompilati da aggiornare. Un’attività fonte di inefficienza è quella dell’emissione dei documenti di trasporto, soprattutto nel caso in cui il compito di consegnare il prodotto al cliente è deputato al fornitore di conto lavoro: HP Composites ha intenzione di implementare un lettore barcode per l’emissione del documento che ridurrebbe i tempi richiesti dall’attività e permetterebbe una gestione del conto lavoro a sistema più corretta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi affronta il problema della scalabilità nelle blockchain decentralizzate nel contesto del trade-off tra portata delle transazioni e requisiti hardware per partecipare alla rete. Vengono presentati i Rollup, ovvero tecnologie per verificare on-chain blocchi eseguiti off-chain minimizzando le assunzioni di fiducia. Viene discussa la variante dei Rollup Ottimistici, in particolare di Optimism e l'utilizzo di prove d'invalidità tramite ricerca binaria interattiva e dei Rollup di Validità, in particolare di StarkNet e l'utilizzo di prove di validità tramite prove di integrità computazionale STARK. Infine si confrontano le due soluzioni sul tempo di prelievo, sul costo delle transazioni e tecniche per minimizzarlo, sulla possibilità di applicare la tecnologia ricorsivamente, sulla compatibilità con Ethereum e sulle licenze utilizzate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I CFRP laminati sono materiali dalle eccellenti proprietà meccaniche specifiche che hanno, però, il grande svantaggio di essere soggetti a delaminazione. Essa è una problematica che può seriamente comprometterne l’affidabilità in vita d’uso e va, perciò, contrastata cercando di prevenirla o cercando di ridurne gli effetti negativi. Lo scopo del presente elaborato di tesi è stato quello di produrre, mediante elettrofilatura, membrane polimeriche che, integrate in laminati compositi, abbiano funzione di rendere il composito delaminato in grado di “autoripararsi” tramite meccanismo di self-healing. È stato condotto uno studio di ottimizzazione di tutti i parametri riguardanti la soluzione ed il processo di elettrofilatura che conducesse all’ottenimento di membrane con una morfologia fibrosa esente da difetti e, contemporaneamente, ad una buona maneggiabilità delle stesse. Le membrane sono state caratterizzate morfologicamente tramite analisi SEM e analisi DSC.