375 resultados para cambiamento organizzativo, riprogettazione dei processi aziendali, ERP, BPR, Business Net


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il TiO2 è probabilmente il fotocatalizzatore maggiormente studiato in letteratura a partire già dagli anni settanta. Le applicazioni più rilevanti dei dispositivi fotocatalitici sono in campo ambientale (depurazione delle acque da inquinanti quali coloranti, microbatteri e residui metallici) e nella produzione di "solar fuel" (combustibili solari), fra questi l'idrogeno. L'idrogeno come vettore energetico è eco-compatibile e può essere utilizzato come carburante il cui prodotto di scarto è vapor d'acqua. Il biossido di titanio è uno dei materiali più promettenti per la costruzione di celle fotocatalitiche, grazie alla sua biocompatibilità e resistenza alla corrosione in ambiente acquoso. Il limite principale di questo materiale è legato allo scarso assorbimento nel visibile dovuto al band gap troppo elevato (circa 3.2 eV). Fra le varie strategie per superare questo problema, è stato mostrato che opportuni droganti permettono di incrementare la "Visible Light Activity", portando ai cosiddetti fotocatalizzatori di 2a generazione. I droganti più promettenti sono il vanadio e l'azoto che possono essere utilizzati singolarmente o in co-doping. L'inserimento di questi materiali nella matrice di TiO2 porta a un notevole miglioramento dei dispositivi abbassando il valore di band gap e permettendo un maggiore assorbimento nello spettro solare. Scopo di questa tesi è lo studio dei processi di crescita di film nanoparticellari di TiO2 drogato con vanadio. La tecnica di crescita usata è la Condensazione in Gas Inerte (IGC), mentre per l'indagine di morfologia e composizione ci si è serviti della microscopia elettronica. Con l'ausilio della diffrazione di raggi X è stato possibile controllare lo stato di cristallizzazione e determinare a quali temperature di trattamento in atmosfera ossidante avviene quest'ultima. Tramite le misure micro-Raman effettuate presso i laboratori dell'Università di Trento è stato possibile monitorare l'andamento della cristallizzazione di campioni depositati con parametri di evaporazione differenti (presenza di ossigeno o meno nell'atmosfera di evaporazione), evidenziando un maggior controllo sulla fase cristallina ottenuta per i campioni cresciuti in atmosfera ricca di ossigeno. Sono state effettuate analisi strutturali avanzate presso i laboratori ESRF di Grenoble, dove sono state portate avanti misure di assorbimento di raggi X di tipo EXAFS e XANES sulla soglia del titanio e del vanadio, evidenziando il carattere sostituzionale del vanadio all'interno della matrice di TiO2 e le diverse fasi di cristallizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha permesso di osservare e analizzare le strategie risolutive che gli studenti italiani utilizzano quando si cimentano nello svolgimento delle prove di matematica nazionali INVALSI (Sistema Nazionale per la Valutazione del Sistema dell'Istruzione). L'osservazione è stata svolta durante le ore di tirocinio curriculare effettuate nell'anno accademico 2014/2015 presso il liceo scientifico e delle scienze umane "Albert Bruce Sabin" di Bologna. L'interesse per l'esperimento è nato dalla constatazione dei risultati deludenti degli studenti italiani nelle prove di matematica rispetto all'andamento internazionale. Pertanto,in collaborazione con il prof Giorgio Bolondi, relatore dell'elaborato, e della prof.ssa Valeria Vesi insegnante di matematica delle classi prime seguite durante il tirocinio, è stato realizzato un test di domande estrapolate dalle prove INVALSI svolte negli anni precedenti, sottoposto a un campione di 12 studenti (14-15 anni) frequentanti le classi 1M, 1O e 1R.Il lavoro d'indagine è stato realizzato in due diverse fasi: soluzione del test e intervista-colloquio registrata. Le registrazioni, apparse fin da subito molto interessanti, rivelano importanti informazioni che permettono di evidenziare le diverse difficoltà che i nostri studenti incontrano nel risolvere le prove di matematica. Per meglio interpretare i loro comportamenti durante la messa in atto dei processi risolutivi è stato svolto uno studio e una ricerca riguardanti gli studi e le teorie che interessano il problem-solving, oltre a fornire una panoramica sulle ricerche nel campo della valutazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettazione del nuovo layout per un nuovo stabilimento produttivo, in cui il gruppo Fiorini Industries S.r.l., in un'ottica di espansione e miglioramento dei parametri tecnici e dei flussi aziendali, si insedia lasciando la sua storica sede produttiva. Questo bisogno nasce dall'impossibilità di espansione dello stabilimento odierno e dalla necessità di ridurre i costi di movimentazione dei materiali durante il ciclo di produzione. La tesi si colloca in questo contesto di necessità di verificare le prestazioni del lay-out attuale, valutandone le problematiche e le criticità al fine di potere identificare delle valide soluzioni di layout per la nuova sede produttiva dal punto di vista tecnico-economico e ambientale. Il CAPITOLO1 è volto ad inquadrare il problema affrontato nella situazione odierna; mettendo in evidenza la rilevanza del lay-out. Viene poi spiegato in maniera approfondita l'approccio di progettazione seguito. Al CAPITOLO 2 spetta la presentazione dell'azienda, della sua storia, della sua gamma di prodotti e dei suoi reparti di lavorazione. L'inquadramento aziendale è necessario al fine di capire le esigenze aziendali di cui si dovrà tenere conto durante lo svolgimento del lavoro. Nel CAPITOLO 3 si procede con l'analisi della situazione attuale, recuperando i dati di input necessari alla determinazione del mix produttivo offerto al mercato, quindi con l'analisi dei cicli produttivi, dei flussi e delle risorse impiegate per le movimentazioni. Il CAPITOLO 4 illustra il nuovo polo industriale del gruppo e presenta le alternative di lay-out individuate, che vengono analizzate dal punto di vista economico per individuare il possibile saving economico annuo rispetto alla situazione attuale. Per completezza di informazione vengono presentate anche aree che non vengono progettate tramite l'analisi tecnico economica (Blocco 2 e Uffici). Il capitolo termina con la scelta del nuovo layout per la nuova sede, dove vengono studiati i saving annui in base ai mezzi di movimentazioni attuali e quelli implementabili. L'ultima parte dell'elaborato valuta le emissioni di anidride carbonica dovute alle movimentazioni interne e valuta la possibile riduzione di emissioni di CO2 con il nuovo layout.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La linea ferroviaria Bologna-Porretta mostra evidenze deformative nel tratto ad EST della stazione di Silla, già da metà del secolo scorso. Il fenomeno si manifesta in una zona delimitata a SUD da un grande deposito di frana quiescente e a NORD dal corso del fiume Reno. In questo contesto, è stato possibile seguire le indagini geognostiche commissionate da RFI, finalizzate alla caratterizzazione geologico-tecnica del problema deformativo e all’installazione di alcuni strumenti di monitoraggio. L’obiettivo principale è quello di ricostruire le dinamiche dei processi in atto, valutando quale sia la causa primaria del cedimento del rilevato ferroviario. Il lavoro ha inizialmente previsto una fase di attività sul campo. Successivamente, prove di laboratorio sono state svolte su cinque campioni rimaneggiati ottenuti da spezzoni di carota. Le stratigrafie di sondaggio, le osservazioni di campo e i risultati delle prove di laboratorio sono stati elaborati assieme ad altri dati a disposizione, quali dati di interferometria radar, dati di monitoraggio e risultati di prove di laboratorio esterne, così da produrre il modello geologico-tecnico dell’area. Nel modello, la superficie di scorrimento si trova a circa 10 m di profondità, coerentemente con le misure degli inclinometri, mentre la falda oscilla tra i 2,0 m e gli 0,5 m di profondità da piano campagna. Infine, le analisi di stabilità sono state divise in una fase di back-analysis e in una fase previsionale che ipotizzasse alcuni interventi di sistemazione. Dal lavoro è stato possibile concludere che il versante destro del fiume Reno è attualmente soggetto a movimenti gravitativi. Le simulazioni effettuate hanno portato a determinare due meccanismi di rottura plausibili. Una batteria di dreni suborizzontali permetterebbe di stabilizzare le superfici di scorrimento critiche con un buon incremento del Fattore di Sicurezza, mentre trincee drenanti e pali rappresentano soluzioni meno efficaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.