512 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.
Resumo:
La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
La velocità di cambiamento che caratterizza il mercato ha posto l'attenzione di molte imprese alla Business Analysis. La raccolta, la gestione e l'analisi dei dati sta portando numerosi benefici in termini di efficienza e vantaggio competitivo. Questo è reso possibile dal supporto reale dei dati alla strategia aziendale. In questa tesi si propone un'applicazione della Business Analytics nell'ambito delle risorse umane. La valorizzazione del Capitale Intellettuale è fondamentale per il miglioramento della competitività dell'impresa, favorendo così la crescita e lo sviluppo dell'azienda. Le conoscenze e le competenze possono incidere sulla produttività, sulla capacità innovativa, sulle strategie e sulla propria reattività a comprendere le risorse e le potenzialità a disposizione e portano ad un aumento del vantaggio competitivo. Tramite la Social Network Analysis si possono studiare le relazioni aziendali per conoscere diversi aspetti della comunicazione interna nell'impresa. Uno di questi è il knowledge sharing, ovvero la condivisione della conoscenza e delle informazioni all'interno dell'organizzazione, tema di interesse nella letteratura per via delle potenzialità di crescita che derivano dal buon utilizzo di questa tecnica. L'analisi si è concentrata sulla mappatura e sullo studio del flusso di condivisione di due delle principali componenti della condivisione di conoscenza: sharing best prectices e sharing mistakes, nel caso specifico si è focalizzato lo studio sulla condivisione di miglioramenti di processo e di problematiche o errori. È stata posta una particolare attenzione anche alle relazioni informali all'interno dell'azienda, con l'obiettivo di individuare la correlazione tra i rapporti extra-professionali nel luogo di lavoro e la condivisione di informazioni e opportunità in un'impresa. L'analisi delle dinamiche comunicative e l'individuazione degli attori più centrali del flusso informativo, permettono di comprendere le opportunità di crescita e sviluppo della rete di condivisione. La valutazione delle relazioni e l’individuazione degli attori e delle connessioni chiave fornisce un quadro dettagliato della situazione all'interno dell'azienda.
Resumo:
La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.
Resumo:
Negli ultimi anni sono stati sintetizzati numerosi oligomeri e polimeri del tiofene che, grazie alle loro proprietà di semiconduttori, hanno trovano largo impiego in molti campi di interesse tecnologico come, ad esempio, transistor ad effetto di campo, diodi elettroluminescenti, dispositivi ottici non lineari e celle fotovoltaiche. Più recentemente, oligomeri tiofenici ossidati allo zolfo hanno trovato applicazione sia in campo elettronico, come materiali accettori in blenda con il poli(3-esiltiofene) (P3HT) usato come materiale donatore, in celle solari di tipo Bulk Hetero Junction (BHJ), ma anche in campo biologico come marcatori fluorescenti di proteine e oligonucleotidi. Tuttavia la sintesi di queste specie richiede condizioni di reazione spinte e al contempo rischiose dovute all’utilizzo in largo eccesso di agenti ossidanti molto forti. Uno degli obiettivi di questa tesi è stato lo sviluppo di metodi più versatili per la mono e di-ossidazione selettiva allo zolfo del tiofene di building-blocks dibromurati di diversa natura. Successivamente i building-blocks S-monossido e S,S-diossido derivati sono stati impiegati per la sintesi di oligomeri e polimeri tramite reazioni di cross-coupling Palladio catalizzate. I composti finali sono stati caratterizzati sia dal punto di vista spettroscopico UV-Vis che elettrochimico, mettendo in evidenza le relazioni che esistono fra gli andamenti dei dati sperimentali ottenuti con il diverso stato di ossidazione dei composti tiofenici diversamente sostituiti. Infine i composti finali sono stati testati sia in campo fotovoltaico che biologico.
Resumo:
Lo scenario di unificazione degli AGN caratterizza le molteplici proprietà di questi oggetti in termini del differente angolo di vista rispetto ad un sistema costituito da un toro oscurante, un disco di accrescimento che alimenta il SMBH e nubi di gas che circondano il buco nero. Circa il 10% degli AGN sono forti sorgenti radio. Questi oggetti, detti AGN Radio-Loud, sono caratterizzati da getti relativistici emessi trasversalmente rispetto al disco di accrescimento e comprendono le radio galassie e i blazar. In accordo con il modello unificato, le radio galassie (MAGN), rappresentano i blazar visti a grandi angoli di inclinazione del getto rispetto alla linea di vista. Nei blazar la radiazione emessa dai getti su scale del pc viene amplificata da effetti relativistici dando origine a spettri piatti con elevata polarizzazione ottica e forte variabilità. Questi oggetti rappresentano le sorgenti più brillanti identificate nel cielo gamma extragalattico. I MAGN, a differenza dei blazar, mostrano spettri ripidi e strutture radio quasi simmetriche. In queste sorgenti, l'effetto del Doppler boosting è meno evidente a causa del grande angolo di inclinazione del getto. In soli 3 mesi di osservazioni scientifiche effettuate con il satellite Fermi è stata rivelata emissione gamma da parte delle radio galassie NGC 1275 e Cen A. I MAGN rappresentano una nuova classe di sorgenti gamma. Tuttavia, il numero di radio galassie rivelate è sorprendentemente piccolo ponendo degli interrogativi sui meccanismi di emissione alle alte energie di questi oggetti. Nel presente lavoro di tesi, si analizzeranno i dati gamma raccolti dal LAT durante i primi 5 anni di osservazioni scientifiche per un campione di 10 radio galassie più brillanti selezionate dai cataloghi B2 e BCS. L'obiettivo principale sarà migliorare la statistica e cercare di comprendere la natura dell'emissione alle alte energie da parte delle radio galassie.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
E’ previsto che l’emissione in atmosfera di anidride carbonica (CO2) da parte dell’uomo e la conseguente acidificazione delle acque dei mari provocherà effetti negativi di vasta portata sui processi biologici di diversi ecosistemi marini. L’acidificazione del mare può provocare effetti negativi su tutti gli stadi del ciclo vitale degli organismi marini, influenzandone la fisiologia, morfologia, comportamento ed alcune fasi della riproduzione e del reclutamento. Esistono poche informazioni riguardo gli effetti dell’acidificazione sulla riproduzione sessuale dei coralli. Questo studio ha lo scopo di quantificare la capacità riproduttiva di Astroides calycularis (scleractinia coloniale mediterranea azooxantellata) in colonie trapiantate lungo un gradiente naturale di pH, generato dalle emissioni di CO2 del cratere vulcanico sottomarino di Panarea (Isole Eolie). Le colonie sono state trapiantate in 4 siti, dal centro del cratere, dove si riscontra la condizione più acida (pH 7.40), alla periferia, caratterizzata da condizioni di pH normali (pH 8.07). La popolazione di A. calycularis di Panarea ha mostrato una sessualità mista a livello coloniale (polipi gonocorici in colonie ermafrodite), in contrapposizione alla condizione gonocorica riscontrata nella stessa specie studiata a Palinuro e a Punta de la Mona (Spagna). I risultati preliminari sembrerebbero mostrare un effetto negativo dell’acidificazione sullo sviluppo gonadico femminile della specie. L’ipotesi è che esso sia dovuto ad una riallocazione delle energie sui processi di calcificazione a danno dell’ovogenesi. La spermatogenesi risentirebbe meno degli effetti negativi dell’acidificazione nelle fasi di sviluppo interne all’ individuo, in quanto meno dispendiose da un punto di vista energetico rispetto alle fasi di ovogenesi. Gli spermatozoi potrebbero invece essere influenzati negativamente dall’ ambiente più acido una volta entrati in contatto con esso, con conseguenze sulla riuscita della fecondazione. Questo studio necessita di ulteriori dati e verrà completato con le analisi istologiche in corso.
Resumo:
Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.
Resumo:
Trovare una fonte alternativa ai combustibili fossili non costituisce più una scelta, ma un obbligo. Lo sfruttamento dell’energia geotermica sta diventando una realtà sempre più diffusa, in quanto una forma di energia rinnovabile, pulita, economicamente conveniente, e con una giusta politica energetica potrebbe dare il suo importante contributo all’energia ottenuta da fonte rinnovabile. Ci sono però dei fattori da non sottovalutare, l’installazione e il funzionamento di impianti geotermici per il riscaldamento o raffrescamento di edifici può produrre alterazioni sull’ambiente circostante e nella falda acquifera. Attraverso un attento studio vengono presi in considerazione tutti i fattori che potrebbero provocare un cambiamento dell’equilibrio preesistente, e vengono individuate le soluzioni che permettono la fattibilità del progetto rispettando i parametri imposti dalla legge. Nell’istallazione di sistemi geotermici a bassa entalpia, il principale elemento da tenere sotto osservazione riguarda la previsione e il controllo delle temperature, in modo tale da impedire lo sviluppo di anomalie termiche. Il sistema preso in considerazione in questa tesi è un sistema geotermico open loop: attraverso un pozzo di adduzione viene prelevata acqua direttamente dalla falda acquifera, per il riscaldamento o il raffrescamento di un edificio, e reimmessa, ad una temperatura diversa, attraverso un pozzo di reimmissione. Si valuta l’impatto del sistema nel sottosuolo e le temperature raggiunte a seguito della messa in opera dell’impianto. In particolare, è proposto un modello numerico MODFLOW di un sistema open loop in un acquifero di sabbia e ghiaia, al fine di determinare l’influenza della reimmissione dal punto di vista idrico e termico. I dati risultanti da questo modello saranno confrontati con quelli ottenuti utilizzando un potente software, COMSOL MULTIPHYSICS. Infine si effettua l’analisi e il confronto dei dati ottenuti dai due software nelle diverse configurazioni del sistema e se ne individua la più adatta alle caratteristiche del sito in esame.