567 resultados para Ottimizzazione CVT biciclette elettriche


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito di questa Tesi è stata svolta un’analisi sperimentale delle prestazioni di una pompa di calore dual-source (DSHP). Essa è una pompa di calore a doppia sorgente in grado di scambiare potenza termica con due diversi serbatoi termici esterni: aria e terreno. Il campo sonde è composto da quattro sonde geotermiche a doppio tubo ad U, due da 60m e due da 100m, disposte in linea ed accoppiate ad una camera climatica per test su pompe di calore elettriche. Sono stati eseguiti test sul prototipo DSHP in configurazione geotermica stabilendo dei criteri per lo svolgimento delle prove, che in corso d’opera sono stati perfezionati. è stata eseguita la calibrazione dei sensori di temperatura, le termocoppie e le termoresistenze, che sono state collocate lungo il circuito idronico e in camera climatica, dove è installata la DSHP. Invece, per monitorare la temperatura del terreno viene impiegato un filo in fibra ottica inserito rispettivamente nella mandata e nel ritorno di uno dei tubi ad U delle sonde da 60m e da 100m. Si è stabilito di affidarci esclusivamente ai valori di offset che la centralina DTS, alla quale sono collegati i quattro filamenti in fibra ottica, applica di volta in volta sulle misurazioni di temperatura. È stata curata nel dettaglio una prova condotta mantenendo attive tutte le sonde del campo geotermico. Al fine di definire le prestazioni della pompa di calore, è stato eseguito il calcolo del Coefficient of Performance (COP) della macchina lungo lo svolgimento della prova, in modo da poter confrontare questo risultato con quelli ottenuti nelle differenti configurazioni analizzate in questa Tesi. I risultati contenuti in questa tesi hanno permesso di stabilire i tempi di scarica e recupero del terreno, l’entità dell’interferenza che si genera tra sonde adiacenti sottoposte ad un carico termico e di studiare il comportamento del terreno nei suoi strati più superficiali in funzione delle condizioni metereologiche esterne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio condotto è relativo allo sviluppo del Digital Twin di macchine automatiche finalizzato all’implementazione del cosiddetto Virtual Commissioning, cioè simulazioni virtuali della messa in servizio delle macchine per la verifica preliminare e/o ottimizzazione dei codici di controllo (Part Program o G-code). In particolare, il caso di studio trattato in questa tesi è la macchina F2F prodotta dall’Azienda GIULIANI (gruppo Bucci Automations S.p.a., Faenza – RA), con centro di lavoro bi-mandrino con tavola rotante azionato tramite controllore Fanuc. Dopo aver creato il Digital Twin della macchina, che ha richiesto come primo passo la digitalizzazione di alcuni componenti di cui non si avevano a disposizione i modelli CAD 3D, sono state effettuate simulazioni di cicli di lavoro di diversi semigrezzi, così da validare il modello in modo approfondito sulla base dell’esame di varie casistiche. In questa tesi si analizzano nel dettaglio il processo di sviluppo del modello e le procedure di simulazioni di Virtual Commissioning implementate sul software Eureka Virtual Machining (Roboris S.r.l., Pisa), delle quali vengono presentati i maggiori problemi riscontrati e illustrate le relative soluzioni. L’obiettivo è quello di fornire linee guida di carattere generale per affrontare anche in futuro le criticità più significative durante la fase di digitalizzazione delle macchine prodotte dall’Azienda. Inoltre, come applicazione particolare delle simulazioni Virtual Commissiong, è stata svolta un’attività di ottimizzazione per la riduzione del tempo di ciclo di lavoro di un pezzo, con lo scopo di incrementare la produttività della macchina. Infine, si fa notare che il produttore del software ha eseguito modifiche alla versione corrente di Eureka sulla base delle criticità che sono state riscontrate e segnalate durante lo sviluppo di questa tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distribuire un’applicazione che soddisfi i requisiti del cliente e che sia in grado di accogliere rapidamente eventuali modifiche è, al giorno d’oggi, d’obbligo per aziende che si occupano di applicazioni mobile che vogliano rimanere competitive sul mercato. Il principale fattore chiave in grado di mantenere un’azienda al passo con la continua evoluzione sia del mercato che delle tecnologie mobile è la continua innovazione e ottimizzazione dell’intero processo di sviluppo. La collaborazione e la comunicazione tra diversi team, l’utilizzo di cicli iterativi di sviluppo, i rilasci frequenti e l’automazione dei test sono alcune delle pratiche incentivate dalla cultura DevOps, adottabile con successo (si vedrà in questa tesi) anche per lo sviluppo di applicazioni mobile. Innovare e ottimizzare il processo di sviluppo non significa solo automatizzare l’esecuzione dei task. Un ruolo importante è giocato anche da aspetti legati all’applicazione: l’architettura, il paradigma di programmazione, e gli strumenti utilizzati. In particolare, al fine di applicare il principio “Don’t repeat yourself ” (DRY) e semplificare la manutenzione, diversi moderni framework per lo sviluppo di applicazioni mobile, detti multipiattaforma, propongono meccanismi che consentono di condividere codice tra piattaforme differenti. L’obiettivo di questa tesi è dunque quello di discutere (capitoli 1, 2 e 3) e mostrare, applicate ad un caso di studio industriale (capitoli 4, 5 e 6), l’uso di tecniche DevOps nell’ambito di applicazioni mobile, ed in particolare mostrando come queste siano applicabili in congiunzione ai framework di sviluppo multipiattaforma (in particolare, Kotlin Multiplatform).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I problemi di ottimizzazione di dimensione finita di larga scala spesso derivano dalla discretizzazione di problemi di dimensione infinita. È perciò possibile descrivere il problema di ottimizzazione su più livelli discreti. Lavorando su un livello più basso di quello del problema considerato, si possono calcolare soluzioni approssimate che saranno poi punti di partenza per il problema di ottimizzazione al livello più fine. I metodi multilivello, già ampiamente presenti in letteratura a partire dagli anni Novanta, sfruttano tale caratteristica dei problemi di ottimizzazione per migliorare le prestazioni dei metodi di ottimizzazione standard. L’obiettivo di questa tesi è quello di implementare una variante multilivello del metodo del gradiente (MGM) e di testarlo su due diversi campi: la risoluzione delle Equazioni alle Derivate Parziali la ricostruzione di immagini. In questo elaborato viene illustrata la teoria dello schema multilivello e presentato l’algoritmo di MGM utilizzato nei nostri esperimenti. Sono poi discusse le modalità di utilizzo di MGM per i due problemi sopra presentati. Per il problema PDE, i risultati ottenuti mostrano un ottimo comportamento di MGM rispetto alla implementazione classica ad un livello. I risultati ottenuti per il problema di ricostruzione di immagini, al contrario delle PDEs, evidenziano come MGM sia efficace solo in determinate condizioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi è l’analisi delle potenzialità di produzione di una linea di processo dell’azienda Basf, trovando i colli di bottiglia e proponendo delle modifiche per migliorare il processo, sia in efficienza che in volumi prodotti. L’impianto è suddiviso in tre sezioni: sintesi, estrazione e distillazione del prodotto P1. Produrre maggiori quantità di P1 è fondamentale per mantenere lo stabilimento al passo con le richieste del mercato. Lo studio è stato caratterizzato dall’analisi delle apparecchiature della linea nelle condizioni di esercizio e da verifiche secondo le portate attuali; successivamente sono state valutate delle modifiche, intere o parziali, della sezione di distillazione. Le proposte si differenziano nell’investimento necessario, esse sono definite: "low cost”, “high cost 1”, “high cost 2”. La prima opzione equivale ad un classico revamping, in cui vengono sostituiti i riempimenti delle colonne di distillazione per migliorare l’efficienza fluidodinamica e assicurare un punto di esercizio sotto il limite dell’ingolfamento. La proposta high cost 1 suggerisce, invece, oltre ai riempimenti strutturati, la sostituzione di una colonna con un’altra di diametro maggiore nella sezione di esaurimento. La terza proposta prevede di modificare la quasi totalità della linea di processo, effettuando uno scambio delle tre colonne di distillazione, in cui la minore viene eliminata, con l’installazione di una terza di dimensioni superiori. Ogni proposta permette di ottenere delle quantità di P1 maggiori generando un beneficio economico stimato con il Valore Attuale Netto, il punto di ritorno e il Tasso Interno di Rendimento. Per ridurre la necessità di vapore e acqua di torre è stato valutato un recupero energetico che ha come ulteriore beneficio la diminuzione delle emissioni di CO2 in atmosfera. L’elaborato si conclude con la scelta della proposta più conveniente sulla base dei criteri sopra citati e della possibilità realistica di implementazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di comunicazione 6G si prevede che soddisfino requisiti più stringenti rispetto alle reti 5G in termini di capacità di trasmissione, affidabilità, latenza, copertura, consumo energetico e densità di connessione. I miglioramenti che si possono ottenere agendo solo sugli end-points dell'ambiente wireless potrebbero non essere sufficienti per adempiere a tali obiettivi. Performance migliori potrebbero invece essere raggiunte liberandosi del postulato che fissa l'ambiente di propagazione come elemento incontrollabile. In questo panorama spicca una tecnologia recente che prende il nome di Reconfigurable Intelligent Surface (RIS) e che si pone l'obiettivo di rendere personalizzabile l'ambiente di propagazione wireless attraverso elaborazioni quasi passive di segnale. Una RIS è una superficie sottile ingegnerizzata al fine di possedere proprietà che le permettono di controllare dinamicamente le onde elettromagnetiche attraverso, ad esempio, la riflessione, rifrazione e focalizzazione del segnale. Questo può portare alla realizzazione del cosiddetto Smart Radio Environment (SRE), ovvero un ambiente di propagazione che non è visto come entità aleatoria incontrollabile, ma come parametro di design che svolge un ruolo fondamentale nel processo di ottimizzazione della rete. Nel presente elaborato, partendo da un modello macroscopico del comportamento di una RIS sviluppato dal gruppo di ricerca di propagazione e integrato all'interno di un simulatore di ray tracing, si effettua uno studio di coperture wireless con l'ausilio di RIS in semplici scenari indoor di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le aziende per rispondere ai bisogni dei clienti, che oltre ad essere plurimi sono imminenti, devono possedere un solido sistema logistico. In particolare, la logistica interna resta una delle aree con maggiore potenziale di miglioramento, in quanto le aziende riescono ad esercitare un migliore controllo sui propri processi. Per tale ragione l’azienda Marposs Spa, leader nella fornitura di strumenti di precisione per la misura, ispezione e testing, intende agire sulla leva dei flussi logistici interni, puntando alla loro ottimizzazione. Infatti, lo scopo del presente elaborato è quello di gestire e riorganizzare i flussi logistici interni in maniera efficiente, fornendo una risposta al dubbio aziendale riguardante lo stoccaggio dei codici presso le ubicazioni errate. Dubbio lecito, considerando la presenza in azienda di circa 100.000 codici materiali, distribuiti su 80 magazzini, in 2 principali stabilimenti, per un totale di 38.000 m². Attraverso l’analisi dettagliata delle quantità movimentate tra i vari magazzini aziendali e la successiva costruzione della From-to chart dei flussi AS-IS, si identificano i codici da esaminare. A questi si aggiunge lo studio dei codici ubicati nei magazzini dello stabilimento 1, al fine di ottimizzare, con la revisione del layout, i flussi logistici interni. La creazione di un nuovo magazzino “codici comuni”, da posizionare centralmente nell’area produttiva dello stabilimento 1, e la successiva distribuzione a raggiera della merce presso i tavoli di lavoro, permette la riduzione complessiva delle movimentazioni. Parallelamente si estraggono, attraverso la formulazione di due criteri, i codici che necessitano il cambio ubicazione (e quindi di stabilimento), quelli per i quali la posizione viene consolidata e quelli che conviene porre centralmente nell’area produttiva. Si calcolano, infine, i benefici economici, temporali e di movimentazione, utilizzando le From-to charts differenziali relative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pelle dello squalo è stata validata come un efficace sistema di controllo della resistenza di attrito privilegiato in regime turbolento. Essa è stata oggetto di numerosi studi volti a rendere realizzabili repliche quanto più simili alla sua reale struttura superficiale. In questa trattazione, partendo da una breve digressione storica sull’evoluzione dello studio delle rugosità superficiali, sono state analizzate le principali campagne sperimentali svolte in merito alla replica di superfici con Riblets 2D. Di queste ultime, sono state stimate le prestazioni per sezioni triangolari, smerlate, a lama e, per ciascuna di esse, è stata fornita la rispettiva ottimizzazione dei parametri caratteristici della geometria. Inoltre, è stato presentato uno studio sperimentale, in cui sono state impiegate Riblets 3D a lama trapezoidale, mostrando le criticità rispetto alle Riblets 2D. Successivamente, è stata fornita un’analisi che ha evidenziato il ruolo dell’orientazione delle superfici Riblet e delle nervature tridimensionali disposte sopra di esse, rispetto al flusso; in quanto è stato supposto che, nella reale pelle di squalo, ciò avrebbe potuto compensare la perdita di prestazioni rispetto al caso 2D. Infine, sono state discusse le tecniche di fabbricazione delle superfici Riblet tramite micro-goffratura e micro-stampaggio, considerando qulle più efficaci per la produzione di superfici ad alte prestazioni, commercializzabili in ambito industriale. In particolare, in questa trattazione è stata discussa la produzione di pellicole di rivestimento per la superficie esterna dei velivoli, stimando la riduzione della resistenza su diversi profili alari in differenti regimi di moto e sono state confrontate le prestazioni delle riblets su tre diversi tessuti impiegati per il nuoto competitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi è stata redatta con l’obbiettivo di implementare il piano di controllo della qualità dello stabilimento dell’azienda INALCA S.p.A, creando un HACCP specifico per il nuovo sistema di congelamento automatico della carne. In particolare, dopo un cenno storico al problema HACCP, si sono affrontati i principali aspetti del sistema HACCP, e dei regolamenti che ne conseguono per la sua creazione, attuazione e validazione. Obiettivo dell’azienda e del mio elaborato era quello di valutare la possibilità di congelare e raggiungere i -18°C al cuore in un tempo inferiore alle 24 ore, puntando alle 16 ore, per ottimizzare la fase di congelamento e velocizzare il processo per la futura vendita dei pallets di carne. A tal fine si è elaborato e successivamente validato il sistema di controllo che tiene conto di tutti gli aspetti generali, dall’entrata della materia prima e dalle sue caratteristiche intrinseche ed estrinseche, all’uscita del prodotto finito confezionato in pallet e trasferito in celle, congelato per il mantenimento della catena del freddo per poi essere spedite ai clienti. Si sono effettuate analisi di conferma per il corretto funzionamento e ottimizzazione dell’impianto medesimo, confrontando le tempistiche di congelamento nei diversi piani dell’impianto di congelamento automatico per il raggiungimento dei -18°C al cuore delle cassette contenenti polpa industriale, valore standard definito dall’azienda per la vendita e spedizione dei prodotti congelati.