404 resultados para Batterie al gel di piombo,Calcolo del rendimento
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Questa tesi ha studiato a fondo le modalità di funzionamento del convertitore ZETA. Si è visto che la presenza dei due magnetici determina una condizione di funzionamento non convenzionale (lo stesso accade nel SEPIC) poco studiata in letteratura. Questa condizione, corrispondente al modo discontinuo nei più elementari convertitori, in cui la corrente si annulla sia nel transistor che nel diodo, dà invece luogo ad un ricircolo di corrente pressochè costante in una maglia che comprende entrambe le induttanze. Questa corrente testimonia un intrappolamento di energia magnetica con relativa perdita per dissipazione che presumibilmente degrada l’efficienza del convertitore. Questo è potuto avvenire perchè non vi è nulla che impedisca il flusso di una corrente negativa sui singoli induttori quando la somma algebrica dei due risulti comunque positiva o nulla (diodo in conduzione). Questo problema si può riscontrare sia nel funzionamento in continua (sempre almeno uno fra transistor e diodo in conduzione) che in discontinua (con un intervallo di tempo in cui non conducono nessuno dei due). Per ovviare a questo problema le soluzioni proposte in questa tesi sono quelle di aggiungere un ulteriore diodo rettificatore in serie agli avvolgimenti e/o di gestire il rapporto di induttanze dei due avvolgimenti in modo che nella condizione nominale di funzionamento raggiungano contemporaneamente la condizione di inversione della corrente. Queste possibilità sono state esplorate con successo nell’utilizzo del convertitore ZETA per applicazioni di correzione del fattore di potenza PFC in cui si è proposto un insieme di equazioni di dimensionamento che portano al progetto del convertitore al fine di ottenere le forme d’onda desiderate.
Resumo:
Ricercare eventuali variazioni o trend nei fenomeni meteorologici è sempre stato uno degli obiettivi degli studi di ricerca. Il dibattito in letteratura evidenzia la difficoltà nell’individuare in maniera univoca un trend relativo agli eventi precipitativi. Nonostante la grande variabilità climatica, la diminuzione delle precipitazioni in inverno e primavera negli ultimi decenni, nel sud Europa e nella parte occidentale del bacino del Mediterraneo, è stata ampiamente confermata. Inoltre, è sempre più importante osservare come eventuali variazioni nelle precipitazioni possano influenzare variazioni di portata volumetrica di un fiume. Il presente studio ha l’obiettivo di individuare eventuali variazioni nelle precipitazioni e nel regime idraulico del bacino di Imola. Lo studio ha preso in considerazione gli eventi precipitativi dagli anni ’20 al 2014 sul bacino del Santerno, localizzato nelle aree montane centro orientali dell’Emilia-Romagna. Dopo aver effettuato il controllo qualità e di omogeneità sui dati ne è stata fatta un’analisi statistica da cui è risultato, in accordo con la letteratura, una diminuzione delle precipitazioni cumulate invernali e del numero di giorni piovosi annuali per alcune stazioni considerate. Attraverso l’uso del modello TOPKAPI, sono state ricostruite alcune variabili idrologiche, come la portata del fiume in una particolare sezione di chiusura, l’umidità del suolo, l’evapotraspirazione potenziale ed effettiva, così da poterne valutare i trend stagionali e annuali. Non è stata rilevata alcuna variazione sia nella portata massima e minima annuale che in quella oraria, mentre è stato identificato un aumento significativo nell’evapotraspirazione potenziale in tutte le stagioni ad eccezione dell’autunno e una diminuzione della saturazione del suolo in inverno e primavera. Infine, le analisi sulle precipitazioni aggregate hanno confermato i risultati ottenuti nella prima parte dello studio. Per concludere, nonostante siano stati evidenziati alcuni cambiamenti significativi nelle precipitazioni cumulate stagionali, non è stata riscontrata alcuna variazione apprezzabile della portata per la sezione di chiusura considerata.
Resumo:
ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto
Resumo:
Il rinnovato interesse da parte dei consumatori per le caratteristiche nutrizionali degli alimenti incentiva la ricerca in campo agroalimentare a sviluppare nuovi prodotti per il mercato attuale sempre più attento a salute e benessere. È in questo contesto che nasce a livello europeo il progetto Bake4Fun mirato allo sviluppo di soluzioni biotecnologiche innovative per la messa a punto di nuovi prodotti da forno funzionali. Nell’ambito di questo progetto europeo, lo scopo dello studio oggetto di questo elaborato di laurea è stato quello di valutare le proprietà antiossidanti e antinfiammatorie di diverse tipologie di pani creati ad hoc con farina di frumento o di farro e sottoposti a fermentazione convenzionale o con pasta madre (sourdough). Il farro appartiene alla famiglia dei cosiddetti “cereali antichi” e grazie al suo elevato profilo nutrizionale si presenta come un promettente candidato per la produzione di alimenti dalle proprietà benefiche. Similmente anche diverse tipologie di fermentazione sembrano in grado di possedere caratteristiche salutistiche. Pertanto, nell’ambito di B4F sono stati formulati e prodotti diversi tipi di pane e se ne sono voluti studiare i possibili effetti antiossidanti ed antiinfiammatori in vivo sul modello sperimentale del suino. Dopo 30 giorni di dieta arricchita con i diversi prodotti sperimentali miscelate in un rapporto di 1:1 con una dieta standard è stato valutato lo stato redox plasmatico mediante l’analisi di tre indicatori del danno ossidativo, quali TAC, GSH e TBARS. Il grado d’infiammazione è stato invece valutato attraverso l’analisi di otto citochine (IFNα, IFNγ, IL-1β, IL-4, IL-6, IL-8, IL-10 e TNFα) utilizzando un saggio multiparametrico di tipo ELISA. Tutti gli animali impiegati godevano di buona salute ed i loro plasmi sono stati analizzati sia all’inizio (T0) sia alla fine (T30) dell’esperimento. Sebbene i risultati conseguiti in relazione allo status ossidativo ed infiammatorio nei suini impiegati non abbiano evidenziato particolari differenze tra i diversi tipi di diete sperimentali, non si esclude che eventuali variazioni delle condizioni sperimentali possano portare a conclusioni diverse o che gli effetti siano maggiormente visibili a livello di altri parametri quali, ad esempio, la variazione della microflora intestinale o l’indice glicemico dei prodotti. Questa possibilità unitamente all’importanza degli effetti salutistici dei cereali antichi e delle diverse tipologie di fermentazione, giustificate da altre ricerche in letteratura, sottolineano la necessità di ulteriori studi in questo ambito.
Resumo:
Questa analisi è volta a esaminare le perturbazioni che, in date diverse (5/6 Febbraio 2015, 19-22 dicembre 2009, 1 febbraio 2012), hanno portato piovosità diffusa e nevicate intense nell'Emilia-Romagna. Il primo caso preso in esame, ossia quello relativo al periodo suddetto, ha rivestito grande importanza nello scenario dell’inverno scorso, in quanto ha provocato numerosi disagi alla viabilità, interruzione della distribuzione di acqua potabile e black-out elettrici nelle zone interessate da precipitazioni nevose; in Romagna invece sono stati numerosi gli allagamenti soprattutto nel Cesenate e nel Riminese. Nel secondo caso analizzato, invece, assistiamo al fenomeno non troppo comune del gelicidio. Provoca, infatti, anch’esso disagi gravi alla viabilità stradale e autostradale, nonché il pericolo di interruzione della corrente nelle linee elettriche, dovuta al peso del ghiaccio depositato sui conduttori che fa crollare i cavi dell’alta tensione. L’ultimo caso, infine, è stato trattato poiché rientrante nella famosa ondata di gelo della prima metà del Febbraio 2012. Vedremo, infatti, un quadro generale dell’ondata, dopodiché un “focus” sulle importanti nevicate del primo Febbraio in regione.
Resumo:
Negli ultimi anni è aumentato l’interesse dell’industria verso lo sviluppo di tecnologie alternative ai trattamenti tradizionali degli alimenti. Tra le varie tecnologie non termiche troviamo il gas plasma. Il plasma è un gas ionizzato neutro, composto da diverse particelle. I principali agenti responsabili dell’azione battericida sembrano essere le specie reattive dell’ossigeno e dell’azoto, causando danni alle cellule microbiche. Recentemente si sta studiando l’“acqua plasmata attivata”. L’obiettivo generale di questa tesi è stato quello di verificare se trattamenti al plasma di soluzioni saline (NaCl 0.9%) possano “attivarle” dotandole di attività battericida nei confronti di un ceppo di Listeria monocytogenes (ceppo 56 Ly) e di stabilire se il materiale con cui sono costruiti gli elettrodi di un generatore di plasma del tipo DBD, possa influenzare l’efficacia delle soluzioni trattate. Si sono pertanto effettuati trattamenti al plasma di soluzioni saline utilizzando elettrodi di differenti materiali: vetro, ottone, acciaio, argento; le soluzioni così ottenute sono state analizzate in termini chimici, e se ne è valutata l’azione decontaminante nei confronti di Listeria monocytogenes 56 Ly nello stesso sistema modello e, in via preliminare, in sistema reale rappresentato da carote julienne deliberatamente contaminate con L. monocytogenes. Dai risultati ottenuti si è visto che la sensibilità di L. monocytogenes 56Ly alle soluzioni acquose trattate al plasma è influenzato sia dal tipo di materiale dell’elettrodo, sia dal tempo di esposizione. L’acciaio si è rivelato il materiale più efficace. Per quanto concerne il sistema reale, il lavaggio con acqua plasmata per 60 minuti ha determinato un livello di inattivazione di circa 1 ciclo logaritmico analogamente a quanto ottenuto con la soluzione di ipoclorito. In conclusione, i risultati ottenuti hanno evidenziato una minore efficacia dei trattamenti al plasma quando applicati ai sistemi reali, ma comunque il gas plasma ha delle buone potenzialità per la decontaminazione prodotti ortofrutticoli.
Resumo:
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Resumo:
Seguendo l'approccio di M. Hairer si dà una dimostrazione della versione probabilistica del Teorema di ipoellitticità di Hormander che utilizza un calcolo di Malliavin "ridotto".
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
In questo elaborato è stato effettuato uno studio di soluzioni tecnologiche per eseguire una localizzazione di prossimità in ambienti indoor tramite la percezione di segnali Bluetooth Low Energy. Il sistema analizzato e sperimentato è composto da un dispositivo in ricezione che effettua una stima della distanza che intercorre con il trasmettitore, tramite la valutazione della potenza del segnale ricevuto. A causa della propagazione indoor, tale stima risulta poco accurata in termini di ranging in quanto vengono a generarsi delle fluttuazioni istantanee del segnale ricevuto dovute a fenomeni di multipath. L’obiettivo di questo progetto è stato quello di mitigare queste oscillazioni sfruttando due trasmettitori al posto di uno, effettuando quindi in ricezione opportune combinazioni fra i segnali ricevuti (Diversity Combining Techniques).
Resumo:
Questo lavoro di tesi nasce per fornire un contributo originale alle ricerche già portate avanti dal gruppo di didattica della fisica volte a rispondere a tre principali esigenze evidenziate dai report europei: rendere la cittadinanza sempre più attiva e sensibile verso azioni di mitigazione e adattamento ai cambiamenti climatici, orientare i giovani verso professioni in settori denominati dall’acronimo STEM (Scienza, Tecnologia, Ingegneria e Matematica), colmare il divario tra le competenze possedute da chi entra nel mondo del lavoro e quelle richieste dalle aziende che operano in campo tecnologico per affrontare le sfide dello sviluppo e dell’innovazione. Per integrare le tre esigenze, il gruppo di ricerca ha avviato nell’ultimo anno una collaborazione con l’Area della Ricerca dell’Università di Bologna (ARIC) al fine di individuare modalità per fare entrare gli strumenti di progettazione noti come Project Cycle Management (PCM) e Goal Oriented Project Planning (GOPP) nelle scuole e sviluppare competenze progettuali a partire dall’analisi di tipo logico dei problemi in situazioni complesse. La collaborazione ha portato alla produzione di nuovi materiali sui cambiamenti climatici finalizzati a guidare gli studenti ad analizzare documenti di sintesi dei report dell’IPCC con tecniche di analisi per problemi e obiettivi tipiche del PCM e del GOPP e, quindi, a progettare azioni di mitigazione o adattamento. Il lavoro di tesi si colloca in questo contesto e si è concretizzato nell’analisi di una sperimentazione realizzata in una classe IV del Liceo Scientifico “A. Einstein” di Rimini tra aprile e maggio, 2015.
Resumo:
Scopo di questo studio è la determinazione delle strutture di età delle specie Mullus barbatus e Mullus surmuletus, pescate in Alto-Medio Adriatico durante le campagne di ricerca MEDITS e GRUND mediante la lettura degli anelli stagionali degli otoliti e delle frequenze di taglia. I campioni di otoliti sono stati prima estratti e poi lavati con sonicatore e acquisiti al computer. Sono state successivamente prese le misure dei radius ed è stata fatta una prima lettura degli anelli. Un subcampione è stato poi scelto per applicare altri due metodi di lettura degli anelli: la bruciatura e la colorazione, preceduta dal taglio dell’otolite. Sono stati poi levigati e lucidati gli otoliti dei giovanili per un conto degli annuli giornalieri. L’analisi dati, svolta tramite il software Rstudio, ha permesso di calcolare non solo le strutture di età, ma anche di osservare le distribuzioni dei campioni per classi di profondità e latitudine, confrontare le strutture di taglia e calcolare le chiavi di età-lunghezza, l’accrescimento somatico con le relazioni lunghezza-peso e l’equazione di Von Bertalanffy e l’accrescimento dell’otolite tramite i rapporti radius-taglia e radius-età e il tasso di incremento dei radius. Infine sono stati anche confrontati i tre metodi di lettura degli anelli al fine di stabilirne il migliore. Le due specie hanno mostrato una grande maggioranza di individui di 1 e 2 anni, soprattutto nella zona settentrionale e centrale dell’area di studio a profondità entro i 100 m. Differenze specifiche sono poi state trovate nel confronto tra le strutture di taglia e le relazioni lunghezza-peso e per il tasso di accrescimento K dell’equazione di Von Bertalanffy. Alta poi è la correlazione tra la misura dei radius e la taglia e l’età. Diverso è anche il tasso degli incrementi dei radius tra primo-secondo anno e secondo-terzo anno.
Resumo:
Il Massiccio del Cansiglio-Monte Cavallo costituisce uno dei maggiori complessi carsici italiani; con questo lavoro si cerca di fornirne una caratterizzazione idrogeologica sulla quale poter basare una futura prova di tracciamento multiplo, al fine di definirne con precisione la configurazione interna. Lo studio è incentrato sul monitoraggio in continuo di portate, temperature e conducibilità elettrica compensata a 25 °C delle tre sorgenti maggiori del fiume Livenza, che sgorgano alla base del Massiccio, e su un monitoraggio idrochimico discontinuo di nove sorgenti (tra cui figurano anche le tre principali) e di quattro grotte rappresentanti le aree di infiltrazione concentrata. L’enorme volume d’acqua contenuto in questo grande acquifero carsico sembra riversarsi quasi completamente nelle aree sorgive situate al margine occidentale della pianura friulana, che cinge il lato orientale del Massiccio. In linea generale, queste acque, tipicamente carbonatiche, non hanno tempi di residenza lunghi all’interno del bacino di provenienza e fluiscono con portate elevate (> 1 m3/s) da ognuna delle tre sorgenti maggiori; nel periodo estivo (luglio-agosto) si registra una fase di svuotamento, assai accentuata al Gorgazzo, sorgente, tra le tre, posta più a nord. Molinetto, situata più a sud, pare differenziarsi maggiormente dalle altre due grandi sorgenti, Santissima e Gorgazzo, mentre le sorgenti minori sembrano, al di là di alcune caratteristiche peculiari, abbastanza simili tra loro. In particolare, il Molinetto mostra, in risposta agli eventi meteorici intensi, un incremento di portata meno netto, accompagnato da un evidente fenomeno di pistonaggio, almeno durante il periodo di morbida. Al contrario, il Gorgazzo risponde immediatamente alle forti precipitazioni piovose e le acque di pioggia viaggiano rapidamente dalla zona di infiltrazione alla sorgente stessa. La Santissima, sorgente con valori medi di portata maggiori e valori di conducibilità elettrica e temperatura mediamente inferiori alle altre, sembra dipendere da un sistema con caratteristiche intermedie tra quelle delle due sorgenti adiacenti. Emerge la complessità di questo vasto sistema carsico che sembra mostrare un grado di carsificazione in aumento da sud-ovest a nord-est. Sulla base dei dati raccolti si suppone che al suo interno possano svilupparsi due sottosistemi: il primo sembra che riversi la sua riserva idrica nelle sorgenti Molinetto e Santissima, il secondo accomuna invece la Santissima con il Gorgazzo, il quale ne costituisce un “troppo pieno”.
Resumo:
Il presente lavoro di tesi, nell’ambito della simulazione balistica di razzi a propellente solido, è volto alla creazione di un’interfaccia che permetta il caricamento delle geometrie dei motori desiderati, in formato SPP, nel codice di simulazione balistica ROBOOST come richiesto da Avio Spa. In particolare saranno descritte le procedure attraverso le quali tale interfaccia è stata realizzata e verranno analizzati i passaggi mediante i quali è possibile ottenere una mesh 3D del motore a propellente solido partendo dalla sua geometria in formato SPP. Si analizzerà inoltre il processo di chiusura di una mesh estratta da una qualsiasi iterazione della simulazione al fine di potervi effettuare delle simulazioni CFD sempre su richiesta della sopracitata azienda. Infine verranno mostrati e discussi i risultati ottenuti per meglio visualizzare il lavoro svolto.