993 resultados para Olografia, Ologramma, Luce, Interferenza
Resumo:
Il contenuto della tesi è incentrato sul processo di adattamento che lo studente Erasmus assume al momento dell'entrata in contatto con una cultura e dei valori diversi dai propri. L’elaborato si basa sul pensiero di Berry, che ha posto l'attenzione sull'inevitabile processo di adattamento dello studente e studiato strategie con le quali quest'ultimo può confrontarsi alla diversità. Nel primo capitolo si è dapprima analizzato il fenomeno della globalizzazione e il modo in cui la società attuale si adopera ogni giorno per prendere parte al processo di trasformazione, per poi porre l'attenzione sull'università di Bologna e sui progetti di scambio che quest'ultima propone. Nel secondo capitolo si è presentata la struttura dell’intervista sottoposta a cinque studentesse Erasmus outgoing del terzo anno del corso di laurea in Mediazione Linguistica Interculturale di Forlì al fine di far emergere i dettagli principali di quanto vissuto all'estero. Nel terzo e ultimo capitolo si sono analizzati i risultati delle interviste, mettendo in relazione la teoria e la pratica. Alla luce del pensiero di Berry, si è verificato come la realtà sia strettamente relazionata con gli elementi trattati dal sociologo e come le funzionalità delle strategie di adattamento possano essere applicabili a diverse esperienze di scambio all'estero.
Resumo:
L’Electron Ion Collider (EIC) è un futuro acceleratore di particelle che ha l’obiettivo di approfondire le nostre conoscenze riguardo l’interazione forte, una delle quattro interazioni fondamentali della natura, attraverso collisioni di elettroni su nuclei e protoni. L’infrastruttura del futuro detector comprende un sistema d’identificazione basato sull’emissione di luce Cherenkov, un fenomeno che permette di risalire alla massa delle particelle. Una delle configurazioni prese in considerazione per questo sistema è il dual-radiator RICH, basato sulla presenza di due radiatori all’esterno dei quali si trovano dei fotorivelatori. Un’opzione per questi sensori sono i fotorivelatori al silicio SiPM, oggetto di questo lavoro di tesi. L’obiettivo dell’attività è lo studio di un set-up per la caratterizzazione della risposta di sensori SiPM a basse temperature, illuminati attraverso un LED. Dopo un’analisi preliminare per determinare le condizioni di lavoro, si è trovato che la misura è stabile entro un errore del 3.5%.
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
La malattia di Parkinson, seconda tra le malattie degenerative più comuni, ha basato per anni la diagnosi e le valutazioni terapeutiche su scale di misura soggettive, di modesta accuratezza e limitate all’utilizzo clinico. Per questo motivo, alla luce di nuove tecnologie emergenti ed efficaci, questa tesi si propone di analizzare lo stato dell’arte dei dispositivi indossabili per la ricerca sul Parkinson e i suoi disturbi. Dopo una breve introduzione, la narrazione prende avvio, nel primo capitolo, con la descrizione della malattia seguita dai trattamenti curativi più utilizzati. Nel secondo capitolo verranno trattati i metodi di diagnosi, a partire dalle scale di valutazione qualitative per poi proseguire con una breve rassegna dei componenti e dei nuovi sensori utilizzabili per ottenere misurazioni quantitative. Questa descrizione sarà fondamentale per poter comprendere il funzionamento dei dispositivi che verranno successivamente citati. Il terzo capitolo si focalizza sulla sintomatologia del Parkinson e sulla rassegna dei dispositivi innovativi destinati alla diagnosi, al monitoraggio e alla cura, partendo dai sintomi motori più comuni ed evidenti, fino ad arrivare alle manifestazioni non motorie silenziose e subdole. Infine, la tesi si focalizzerà in particolar modo sul sonno. Dopo un’analisi della struttura del sonno, si tratteranno le metodiche più utilizzate fino ad oggi per lo studio dei disturbi notturni. Successivamente si proporranno alcuni nuovi dispositivi indossabili innovativi e li si metterà a confronto con i metodi tradizionali per analizzarne le potenzialità, gli svantaggi e i possibili sviluppi futuri. La tesi, nel suo complesso, si pone l’obiettivo di illustrare come, nella ricerca sul Parkinson, lo sviluppo di nuove tecnologie indossabili possa rappresentare un punto di svolta e di sostegno per la valutazione, la diagnosi, la cura della malattia per i clinici, i pazienti e chi se ne prende cura.
Resumo:
Lo scopo del presente lavoro è quello di determinare una metodologia di analisi vibroacustica di validità generale applicabile a tutti i casi nei quali la forzante sia di tipo vibrazionale. Nello specifico si è analizzato il comportamento strutturale e acustico di un impianto di scarico di una monoposto Formula SAE. Ricorrendo all’analisi FEM (Finite Element Method) è possibile determinare e quantificare gli effetti dannosi causati dalle vibrazioni già nella fase di prototipazione permettendo una sostanziale riduzione dei tempi e costi. La determinazione del comportamento strutturale del modello alle vibrazioni è iniziata dall’analisi modale, grazie alla quale sono state determinate le frequenze naturali e i modi propri dell’impianto di scarico. Successivamente, l’analisi FRF (Frequency Response Function) ha permesso di conoscere la risposta del nostro sistema ad una forzante imposta mettendo in luce le diverse criticità strutturali. Con il presupposto di ottenere delle condizioni di carico che fossero il più vicine possibili alle normali condizioni operative si è impostata un’analisi PSD (Power Spectral Density). Per concludere la prima parte dell’analisi si è reso necessario indagare anche il comportamento a fatica vibrazionale, valutando in questo modo le zone soggette a vita finita e quindi le prime a cedere in fase di esercizio. La parte finale è stata dedicata all’analisi del rumore. Dall’analisi FRF si è determinata la SPL (Sound Pressure Level) ottenendo come output un valore di pressione sonora prodotto dall’effetto della propagazione delle onde di pressione generate dalla vibrazione strutturale dell’impianto di scarico. Infine, l’analisi di Transmission Loss ha permesso di valutare l’efficacia della geometria del silenziatore sulla riduzione del livello acustico generato dal transito dei gas di scarico alle diverse frequenze.
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
La luce è il mezzo con cui ricaviamo informazioni sull'universo che studiamo ma per poter ottenere queste informazioni sono necessarie le strumentazioni di raccolta dati e sopra ogni cosa diviene fondamentale l'impianto teorico solidamente costruito attraverso i secoli accumulati dalla nostra disciplina. Nella prima parte una breve introduzione storica per poter capire come siamo arrivati alla modernità. Subito dopo formule e definizioni per avere il quadro completo sui 3 argomenti con le relative dimostrazioni e sopratutto cosa si ricava da tali dati.
Resumo:
HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
L’intensificarsi della concorrenza globale, il rapido sviluppo delle tecnologie e le mutevoli richieste dei clienti hanno portato a una tendenza verso maggiori differenze nei requisiti dei clienti, maggiore necessità di personalizzazione, cicli di vita dei prodotti sempre più brevi e la necessità di una rapida introduzione di nuovi prodotti. I produttori devono tenere conto di queste nuove tendenze e devono essere in grado di fronteggiarle per ottenere un vantaggio competitivo. I sistemi di produzione riconfigurabili RMS sono adatti nella gestione di queste richieste in quanto il sistema può essere continuamente riconfigurato per adattarsi alle richieste del mercato in termini di volumi richiesti e personalizzazione esatta dai clienti. Lo sviluppo effettivo di RMS risulta, ad oggi, molto impegnativo per le aziende e questo è il principale motivo per il quale si ricorre ancora a sistemi di produzione maggiormente tradizionali come DMS e FMS. Questo elaborato definisce le caratteristiche fondamentali ed i principi di progettazione dei RMS, facendone un confronto con quelle dei sistemi DMS e FMS. Successivamente, partendo da un esempio industriale e seguendo i principi fondamentali dei RMS, si sviluppano dei concept di linea produttiva, con celle e stazioni idonee allo sviluppo di un sistema riconfigurabile. In ultima analisi, presso il laboratorio dell’Università di Aalborg, in Danimarca, vengono condotte prove pratiche sulla linea di produzione riconfigurabile Festo. Queste hanno permesso di mettere in luce gli aspetti di forza e le criticità di tali sistemi. Infine, vengono proposte idee per rendere più efficaci i RMS e vengono brevemente illustrate altre possibili tipologie di riconfigurazione in cui viene completamente stravolto il concetto di linea di produzione odierno.
Resumo:
Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.