742 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso
Resumo:
La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.
Resumo:
L’interesse per missioni spaziali verso la luna, il pianeta Marte o asteroidi vicini NEA (near earth asteroids) è in continuo aumento; ne sono prova i numerosi concorsi di idee innovative da applicare a possibili missioni spaziali. A partire dai profili di missione e da altri dati forniti dai gruppi di ricerca attivi nel settore, mi sono occupato di svolgere la modellazione CAD concettuale di un modulo abitabile per due astronauti e, in particolare, di pensare a livello concettuale come possano essere risolte problematiche di dispiegamento del modulo e montaggio nello spazio. E’ infatti fondamentale che la struttura ripiegata possa essere inserita all’interno di un lanciatore già definito, e che possa espandersi una volta in orbita. Ho quindi svolto il disegno del modulo abitativo sia in configurazione di lancio che in configurazione dispiegata, cercando di fornire alcune prime indicazioni riguardo alle possibili configurazioni costruttive e ad una possibile sequenza di montaggio.
Resumo:
Le infezioni ospedaliere (o nosocomiali) sono le complicanze più frequenti e gravi nell’ambito dell’assistenza sanitaria, e costituiscono una delle maggiori cause di morbilità e mortalità. Tale denominazione comprende un insieme piuttosto eterogeneo di condizioni diverse sotto il profilo sia microbiologico che epidemiologico, ma accomunate dall’elevato impatto sulla salute dei pazienti e sui costi sanitari. Molti fattori contribuiscono a condizionare la frequenza delle infezioni nosocomiali, tra cui la compromissione delle difese immunitarie dei pazienti, l’invasività delle nuove tecnologie e pratiche sanitarie in campo diagnostico/terapeutico, l’esecuzione di procedure assistenziali nel non rispetto delle norme igieniche da parte degli operatori sanitari, l’utilizzo estensivo degli antibiotici con conseguente insorgenza di ceppi batterici resistenti; per ultimo, non a caso, l’inquinamento dell’ambiente ospedaliero. Ad oggi, infatti, la contaminazione microbica dell’ambiente (aria e superfici) è ritenuto un fattore di rischio secondario, rispetto alla correttezza dei comportamenti degli operatori (rispetto delle procedure di asepsi, delle precauzioni di isolamento, adeguate tecniche operatorie, ecc), per la quale si sono concentrati gran parte degli sforzi in materia di prevenzione. Ciò probabilmente è anche dovuto al fatto che finora nessuna tecnologia è stata in grado di intervenire in maniera adeguata sulla decontaminazione microbica di aria e superfici. I dati allarmanti sulle infezioni ospedaliere a livello mondiale sono la prova che le misure adottate finora per contrastare il problema non sono sufficienti; inoltre il monito lanciato dall’Organizzazione Mondiale della Sanità riguardo alla progressiva perdita d’efficacia delle terapie antibiotiche impone di trovare al più presto nuove armi per la lotta alle infezioni. Una via sperimentale e innovativa, volta alla riduzione della frequenza d’infezioni ospedaliere, potrebbe essere proprio il disinquinamento dell’aria indoor negli ambienti ospedalieri e delle superfici a contatto diretto con il paziente, ottenibile per mezzo di una tecnologia ad hoc: la “Tecnologia Nano-Safe Koala®” (brevettata da D.A.TECH., azienda specializzata nel disinquinamento dell’aria indoor). Per l’applicazione di tale tecnologia in ambito ospedaliero è stata progettata una "cappa disinquinante", pensata per essere installata al di sopra del posto letto, al fine di fornire al paziente aria incontaminata e di sanificare le superfici a contatto con esso. Una volta realizzato il prototipo, sono state condotte delle sperimentazioni per testarne l’efficacia e l’efficienza, per mezzo di strumenti specifici per quanto riguarda l’analisi dell’aria, e con test biologici per quanto riguarda l’analisi delle superfici.
Resumo:
Lo scopo dell’elaborato di tesi è la progettazione e lo sviluppo di un’applicazione per il modulo Bluetooth Low Energy (BLE) Texas Instrument CC2650 in grado di leggere le informazioni da un sensore analogico, tramite un Analog-Digital- Converter (ADC), e di scambiare i dati con uno smartphone Android in tempo reale. L’interfaccia realizzata deve essere universale, ovvero dovrà essere compatibile con sensori di diverso tipo, facilmente estensibile per l’aggiunta di un numero maggiore di periferiche di lettura e utilizzabile con un ampio numero di dispositivi.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
I veicoli ad alte prestazioni sono soggetti ad elevati carichi per piccoli intervalli di tempo. Questo comporta diverse criticità sulle componenti che costituiscono la vettura: una di queste è la pinza freno. Al fine di renderla performante è necessario il possesso di due proprietà. In primo luogo, la pinza freno deve essere il più leggera possibile poiché essa conferisce un'inerzia nella risposta della sospensione del veicolo, procurando il distacco dello pneumatico dal suolo e causando perdita di aderenza. In secondo luogo, è necessario contenere le deformazioni della pinza freno garantendo un determinato feeling per il pilota. Il compito del progettista è ottimizzare questi due parametri che hanno effetti antitetici. Questa difficoltà porta il progettista a creare design molto complessi per raggiungere l’ottimale e non sempre le geometrie ottenute sono realizzabili con tecnologie convenzionali. Questo studio riguarda il miglioramento prestazionale di una pinza freno costruita con una lega di alluminio 7075-T6 e lavorato dal pieno. Gli obbiettivi sono quello di produrre il nuovo corpo in titanio TI6Al4V, dal momento che le temperature di esercizio portano a grandi decadute di caratteristiche meccaniche dell’alluminio, contenere il più possibile la massa a fronte dell’aumento di densità di materiale e ovviamente limitare le deformazioni. Al fine di ottenere gli obbiettivi prefissati sono utilizzati metodi agli elementi finiti in diverse fasi della progettazione: per acquisire una geometria di partenza (ottimizzazione topologica) e per la validazione delle geometrie ottenute. Le geometrie ricavate tramite l’ottimizzazione topologica devono essere ricostruite tramite software CAD affinché possano essere ingegnerizzate. Durante la modellazione è necessario valutare quale tecnologia è più vantaggiosa per produrre il componente. In questo caso studio si utilizza un processo di addizione di materiale, più specificatamente una tecnica Selective Laser Melting (SLM).
Resumo:
Lo scopo del presente studio è quello di modellare il processo di trattamento delle acque reflue dell’impianto a fanghi attivi Ponte Metauro di Fano. In particolare, si è posta l’attenzione sulle fasi di trattamento secondario, agendo sui parametri che regolano tali processi e simulando il funzionamento ottimale dell’impianto attraverso il programma di modellazione STOAT. Oltre a modellare l’impianto, è stato anche fatto uno studio per cercare di risparmiare i consumi di energia e reagenti. La prima fase quindi è stata incentrata sulla modellazione dell’impianto, soprattutto per i trattamenti secondari, con varie simulazioni per poi arrivare ad avere una rappresentazione corretta del fenomeno che avviene nella realtà. La seconda fase invece è stata incentrata sulla ricerca di un possibile risparmio energetico per ottimizzare i consumi di energia e reagenti all’interno delle vasche.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
Lo scopo di questa tesi è quello di mostrare le potenzialità e le possibili soluzioni dell’Additive Manufacturing per l’ottimizzazione di macchine elettriche in risposta al problema delle terre rare. Nel primo capitolo viene presentato lo stato dell’arte dell’Additive Manufacturing mostrando una rapida panoramica delle sue caratteristiche principali, le potenzialità future e i settori di utilizzo. Il secondo capitolo propone le principali tecniche di Stampa 3D per la realizzazione di oggetti evidenziando di ognuna i pregi e i difetti. All’interno del terzo capitolo, viene illustrata la struttura di una macchina elettrica mostrando le varie componenti e presentando delle possibili ottimizzazioni realizzate tramite Additive Manufacturing. Nel quarto capitolo vengono presentati esempi di macchine elettriche complete realizzate attraverso le tecniche dell’Additive Manufacturing. Nel quinto capitolo vengono confrontati un Interior Permanent Magnets motor e un Synchronous Relectance Machine.
Resumo:
L'obiettivo di questo elaborato di tesi è la modellazione grafica delle cabine di pilotaggio di due elicotteri civili: si prevede una futura implementazione del modello di volo completo sul simulatore FlightGear. I due velivoli presi in considerazione sono stati sviluppati dall'azienda AgustaWestland e sono denominati AW109 e AW139. I modelli di volo sono composti da una parte grafica e dal modello dinamico del volo. La presente tesi si occupa del primo aspetto. Il lavoro di tesi è iniziato con una fase preliminare di ricerca che ha richiesto lo studio di come i modelli dinamici di volo siano implementati nel simulatore FlightGear; è stato, inoltre, approfondito l'utilizzo del linguaggio di markup XML necessario a descrivere il funzionamento e le caratteristiche dei velivoli in FlightGear. Ha fatto seguito la fase di scrittura dei file XML, facendo riferimento a modelli di elicotteri preesistenti e all'effettiva modellazione degli strumenti di bordo, attraverso il programma CAD Blender. Nella fase finale sono stati studiati e posizionati i vari strumenti principali di bordo, consultando i manuali degli elicotteri e ottenendo delle cabine di pilotaggio del tutto simili a quelle reali dei velivoli considerati. Gli sviluppi futuri di questo lavoro prevedono l'integrazione dei modelli grafici qui implementati nel modello di volo completo dei due elicotteri presi in considerazione.
Resumo:
Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.