166 resultados para Linea Cuchilla
Resumo:
In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.
Resumo:
L'elaborato è il risultato del progetto di tesi svolto presso l’azienda Lift Truck Equipment L.T.E. di Ostellato (Ferrara) che opera nell’ambito della progettazione e produzione di gruppi di sollevamento ed attrezzature per carrelli elevatori all’interno del gruppo Toyota Material Handling. Il progetto è stato svolto nel periodo da gennaio a marzo 2016 in collaborazione con l’ufficio di Ingegneria di processo di L.T.E. e riguarda l’applicazione del metodo MAGEC (Modi e Analisi dei Guasti e delle Criticità) per l’analisi dei guasti di una linea produttiva dell’azienda, la Rail Line. Nel primo capitolo viene inquadrato il sistema produttivo dell’azienda in aderenza con la filosofia del TPS (Toyota Production System) per chiarire l’ambito in cui è nato il progetto, le motivazioni che hanno portato al suo sviluppo e l’ottica secondo cui è stato svolto. Nel secondo capitolo è fornita una descrizione dell’approccio utilizzato, che consiste in una variante della FMECA, il metodo più utilizzato per le analisi in ambito affidabilistico. Inoltre sono riportate le attività di pianificazione che sono state svolte preliminarmente all’inizio del progetto. Successivamente nel terzo capitolo sono illustrati in modo dettagliato i vari step dell’implementazione del metodo, dalla raccolta dati, effettuata presso l’azienda, all’elaborazione. L’ultimo capitolo è dedicato ai risultati dell’analisi e a una breve descrizione di come tali risultati sono stati utilizzati nelle attività di manutenzione preventiva.
Resumo:
L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.
Resumo:
L’elaborato verte sulla simulazione della gestione dei materiali dell’azienda Robopac. Il modello esposto è stato creato tramite il software Arena, il quale permette la riproduzione di una struttura aziendale reale ed è, per questo, uno strumento validissimo per esaminare situazioni critiche, nonché per confrontare alternative progettuali e validarle. Nello specifico, in tale tesi ci si propone di verificare, attraverso un’attenta analisi, come l’azienda Robopac gestisca i materiali nel suo percorso di elaborazione e trasformazione. Per gestione dei materiali si intende il coordinamento degli arrivi, il controllo sulle materie, il trasporto di tali materiali nei magazzini appositi e il successivo spostamento in linea. Questa indagine permetterà di valutare l’efficienza e l’utilizzo delle risorse, le tempistiche delle movimentazioni e l’eventuale creazione di code, così da cercare soluzioni che potrebbero migliorare e ottimizzare le operazioni. Il modello creato con Arena considera i sei codici-prodotto più rappresentativi e rende possibile una riproduzione conforme a ciò che è stato osservato. Inoltre sono analizzati i report forniti automaticamente da tale software e valutati l’utilizzo delle risorse e le giacenze a magazzino. Sarebbe interessante ampliare la simulazione esposta, prendendo in considerazione l’intero numero di codici prodotti, così da poter analizzare la totale gestione dei materiali e considerare eventuali differenze o scostamenti rispetto a quanto svolto in questa tesi. Un ulteriore ampliamento altrettanto valido potrebbe essere quello di coniugare la simulazione della gestione dei materiali con il modello della linea produttiva principale già realizzato con Arena. Ciò permetterebbe una più completa visione dell’azienda e l’indagine della realtà imprenditoriale diventerebbe più ampia, approfondita e dettagliata.
Resumo:
Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.
Resumo:
Questa tesi si inserisce nell’ambito del progetto WA104-NESSiE al CERN per il quale era richiesto lo sviluppo di un tracciatore di particelle cariche da utilizzare in presenza di campi magnetici e avente una risoluzione sulla posizione ricostruita di 1-2 mm. Il lavoro di tesi ha riguardato l'analisi dei dati raccolti con un prototipo del tracciatore composto da barre di scintillatori a sezione triangolare, accoppiati a SiPM i cui segnali sono acquisiti in modalità analogica. Il prototipo è stato esposto a particelle cariche presso la linea di fascio T9 del PS del CERN nel maggio 2016. La catena di analisi è stata validata con dati provenienti da una simulazione Monte Carlo basata su Geant4 che fornisce la risposta del tracciatore al passaggio di particelle cariche (pioni e muoni) a diversi impulsi (1-10 GeV/c). Successivamente, è stata fatta un'analisi preliminare dei dati reali e un confronto con la simulazione Monte Carlo. La risoluzione ottenuta per pioni di 5 GeV è di ∼ 2 mm, compatibile con il valore ottenuto dalla simulazione Monte Carlo di ∼ 1.5 mm. Questi risultati sono stati ricavati analizzando una frazione degli eventi acquisiti durante il test beam. Una misura più accurata della risoluzione del tracciatore può essere ottenuta introducendo alcune correzioni, come ad esempio l’allineamento dei piani, la ricalibrazione dei segnali dei singoli canali e, infine, analizzando l’intero campione.
Resumo:
Lo scopo di questa tesi è valutare l’attività di uptake delle cellule nei confronti di nanoparticelle di silice fluorescenti e il loro possibile effetto citotossico. Per verificare l’attività di uptake delle cellule abbiamo utilizzato 4 diverse linee cellulari tumorali umane e abbiamo studiato il comportamento delle nanoparticelle all’interno delle cellule grazie all’utilizzo del microscopio a fluorescenza, con cui abbiamo potuto valutare se le particelle sono in grado di penetrare nel nucleo, soprattutto ad alte concentrazioni o a lunghi tempi di incubazione. Per questa valutazione abbiamo effettuato incubazioni a concentrazioni crescenti di nanoparticelle e a tempi di incubazione sempre più lunghi. Inoltre, abbiamo coltivato le cellule sia in condizioni di crescita ottimali, addizionando il terreno con FBS, che in condizioni subottimali, senza l’aggiunta di FBS nel terreno, perché abbiamo ipotizzato che le proteine presenti nell’FBS potessero disporsi come una corona esternamente alle cellule, ostacolando l’uptake delle nanoparticelle. Infine, abbiamo valutato se le diverse linee cellulari avessero dei comportamenti diversi nei confronti dell’internalizzazione delle nanoparticelle. Per quanto riguarda la valutazione di un possibile effetto citotossico delle nanoparticelle, invece, abbiamo effettuato dei saggi di vitalità cellulare, anche in questo caso utilizzando 4 linee cellulari differenti. Come per l’analisi in microscopia, abbiamo effettuato l’incubazione a concentrazioni crescenti di nanoparticelle, a tempi di incubazione sempre più lunghi e in condizioni ottimali, aggiungendo FBS al terreno, o subottimali, senza FBS. Queste variazioni nelle condizioni di incubazione erano necessarie per capire se la vitalità cellulare potesse dipendere da un’alta concentrazione di nanoparticelle, da lunghi tempi di incubazione e dalla presenza o assenza di FBS e se l’effetto fosse diverso a seconda della linea cellulare sottoposta al trattamento.
Resumo:
Con questa tesi si vuole illustrare e riordinare il lavoro da me svolto sulla progettazione di mozzi ruota e di altri componenti ad esso associati, relativi alla vettura del team di Formula SAE dell’Università di Bologna. Dopo una prima fase di studio del particolare componente tesa a definire quali caratteristiche fossero richieste al fine di raggiungere gli obbiettivi, si è passati allo sviluppo del progetto con lo svolgimento di primi calcoli a mano, per definire in linea di massima le sollecitazioni, per poi affinare il dimensionamento con le simulazioni FEM. Il componente è stato infine realizzato in lega d'alluminio ad elevate prestazioni.
Resumo:
In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.
Resumo:
Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.
Resumo:
La tesi "Analisi del ciclo di lavorazione e dei costi di trattamenti termici" è stata svolta in collaborazione con l'azienda PASELLO TRATTAMENTI TERMICI s.r.l. che si occupa di trattamenti termici dei metalli per conto terzi. L’obiettivo è svolgere l’analisi del ciclo di lavorazione e dei costi di due prodotti ricevuti in conto lavoro dall’azienda, confrontando i trattamenti termici di cementazione in atmosfera e a bassa pressione. Nel capitolo 1 sono descritti i tratti generali dell’azienda, le risorse produttive di cui dispone e come vengono gestite l’identificazione e la tracciabilità dei prodotti durante il processo produttivo. Nel capitolo 2 viene analizzato il ciclo di lavorazione in atmosfera di un prodotto del cliente Sarbo Spa, sottoposto al trattamento termico di cementazione in atmosfera. Dunque vengono descritti il trattamento termico e le caratteristiche principali dei pezzi. Allo stesso modo, nel capitolo 3, viene analizzato il ciclo di lavorazione in bassa pressione di un prodotto del cliente Seven Diesel Spa, sottoposto al trattamento termico di cementazione a bassa pressione. Nel capitolo 4 viene svolta l’analisi dei costi, secondo la logica “full costing”, tenendo distinti i due ordini e determinando il costo industriale. Vengono analizzati gli investimenti nelle due linee, i costi di ammortamento, i costi dei materiali di consumo, i costi di manodopera e i costi dei gas di processo, fino a determinare il costo totale di fornata per la cementazione in atmosfera e per la cementazione a bassa pressione, e quindi l’euro al chilo e al pezzo dei due ordini. Inoltre è quantificata l’incidenza dei costi in percentuale sul costo totale di fornata. Nella conclusione viene sottolineato il fatto che, nonostante l’investimento in una linea innovativa come quella a bassa pressione sia superiore rispetto a quello per la linea in atmosfera, se si considera l’intero processo produttivo, risulta più conveniente la cementazione in bassa pressione.
Resumo:
Questa tesi si propone di illustrare il lavoro da me svolto presso l’azienda Ocem Airfield Technology all’interno del magazzino componentistica mirato alla riorganizzazione del supermarket delle linee di assemblaggio nell’ottica della minimizzazione dei tempi di prelievo. La continua ricerca di flessibilità sulla base delle esigenza della clientela ha un drastico effetto sul magazzino e sulla sua gestione. Il magazzino rappresenta un elemento estremamente oneroso nel bilancio aziendale e contribuisce per il 20% ai costi interni dell’impresa. Hanno un ruolo cruciale nel funzionamento aziendale: i magazzini sono il luogo di attesa per i prodotti dal punto di origine a quello di consumo, garantiscono l’immagazzinamento e lo stoccaggio della merce ed infine sono un driver fondamentale per ridurre l’incertezza. Tra le attività più costose si colloca il prelievo frazionato della merce o order picking, responsabile del 55% dei costi operativi logistici. Nell'ambito Ocem è stato implementato un progetto per la riduzione dei tempi di prelievo ispirandosi a modelli nati in letteratura. Il progetto inizialmente è stato testato su una linea pilota a bassi volumi per monitorare i possibili vantaggi. Una volta confermata la riduzione effettiva dei tempi di prelievo, il progetto è stato replicato con le opportune modifiche sulle restanti linee di assemblaggio raggiungendo incrementi di efficienza significativi. Il parametro adottato come performance index è stata la riduzione percentuale del tempo di prelievo dall’as-is al to-be.
Resumo:
L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
In questa tesi si introduce il concetto di buco nero acustico come l’analogo sonoro di ciò che rappresenta un buco nero in relatività generale. In primo luogo verrà quindi illustrata la teoria della gravitazione di Einstein, per poi entrare nel dettaglio della soluzione di Schwarzschild e della nozione di buco nero. In secondo luogo si dimostrerà come alcuni sistemi, i fluidi disomogenei in movimento, riescano a riprodurre effetti gravitazionali sotto certe condizioni. In particolare si osserverà come il suono che si propaga in questi fluidi lo faccia lungo delle geodetiche determinate da una "metrica acustica" dipendente da velocità e densità del fluido, che verrà ricavata. Ciò che permetterà di stabilire l’analogia sarà un’estensione analitica della soluzione di Schwarzschild, quella di Painlevé-Gullstrand: si potrà infatti identificare (formalmente) l’elemento di linea acustico con l’elemento di linea di Painlevé-Gullstrand. Si troverà che portando la velocità del fluido a una velocità maggiore di quella del suono, nella zona supersonica le onde acustiche non potranno propagarsi controcorrente ma verranno trascinate nella direzione opposta, come i raggi luminosi vengono trascinati verso la singolarità all’interno dell’orizzonte degli eventi di un buco nero. La zona supersonica verrà quindi chiamata buco nero acustico.