962 resultados para cinetica, sodio, modelli matematici, emodialisi
Resumo:
Si riporta inizialmente un’analisi tecnica dell’autopilota Ardupilot, utilizzato con il firmware Arduplane, che predispone la scheda all’utilizzo specifico su velivoli senza pilota ad ala fissa. La parte sostanziale della tesi riguarda invece lo studio delle leggi di controllo implementate su Arduplane e la loro modellazione, assieme ad altre parti del codice, in ambiente Matlab Simulink. Il sistema di controllo creato, chiamato Attitude Flight System, viene verificato con la tecnica del Software In the Loop in un simulatore di volo virtuale modellato anch’esso in Simulink, si utilizza la dinamica di un velivolo UAV di prova e il software FlightGear per l’ambiente grafico. Di fondamentale importanza è la verifica della compatibilità fra il firmware originale e il codice generato a partire dai modelli Simulink, verifica effettuata mediante test di tipo Hardware in the Loop. L’ultima parte della tesi descrive le prove di volo svolte per verificare le prestazioni della scheda su un aeromodello trainer.
Resumo:
La migrazione genera spesso nei soggetti migranti forme di spaesamento, poiché lo spostamento fisico condiziona la sfera emotiva: in loro può emergere il senso di nostalgia verso la patria e il desiderio del ritorno, oppure la volontà di annullare le proprie radici e di conformarsi ai modelli della società ricevente. Spesso tali sensazioni di spaesamento possono essere superate grazie alla pratica creativa della scrittura; è per questo che nelle varie realtà di immigrazione ha preso campo la pratica della scrittura migrante, dove si dà spazio all’altro che cerca di far sentire la propria voce, ricorrendo alla lingua del Paese d’arrivo, senza rinunciare ai tratti distintivi della sfera culturale d’origine, creando testi ibridi, che disegnano un ponte tra le culture. Focus della ricerca è la scrittura della migrazione africana in Spagna, studiata sia in prospettiva generale che specifica, mediante quattro autori e le relative opere selezionate: Laila (2010) della marocchina Laila Karrouch, Las tres vírgenes de Santo Tomás (2008) dell’equatoguineana Guillermina Mekuy, Una vida de cuento (2006) del camerunese Boniface Ofogo, Amina (2006) del senegalese Sidi Seck. L’analisi dei testi è effettuata sulla base di due filoni tematici, la famiglia e il rapporto con la società d’arrivo, ed è corredata dallo studio del lessico relativo ai due temi di riferimento. Leggere fra le righe il microcosmo della famiglia significa porre l’attenzione sulle diverse dinamiche affettive che stanno dietro alla parola “migrazione” e sulle particolari dimensioni familiari che caratterizzano la vita odierna, dove spesso avviene il contatto fra più culture. Un contatto che si riflette nel macrocontesto della realtà ospite dove si ha modo di avviare un dialogo fra nativi e stranieri, poiché spesso le iniziali forme di contrasto si tramutano in sete di conoscenza e volontà di avvicinarsi, facendo emergere l’idea che la diversità non separa ma arricchisce.
Resumo:
Il lavoro propone un’analisi critica delle disciplina italiana ed europea della consulenza in materia di investimenti. Si considerano innanzitutto le problematiche generali del rapporto tra cliente e intermediario nella prestazione della consulenza, con particolare riferimento ad asimmetrie informative e conflitti di interesse. Si discute, in particolare, il tradizionale paradigma regolamentare fondato sulla trasparenza: le indicazioni della finanza comportamentale suggeriscono, infatti, un intervento normativo più deciso, volto a caratterizzare in maniera fiduciaria la relazione tra cliente e intermediario. Dopo aver analizzato, alla stregua dei modelli teorici illustrati in precedenza, l’evoluzione storica della disciplina della consulenza nell’ordinamento italiano, si sottolinea il ruolo svolto dall’autorità di vigilanza nella sistematizzazione dell’istituto, nel contempo rilevando, tuttavia, la complessiva insufficienza delle norme vigenti al fine di un’adeguata tutela dell’investitore. Si esamina poi la disciplina introdotta dalla MiFID, con specifica attenzione alle implicazioni sistematiche dell’estensione della nozione di consulenza operata dalle autorità di vigilanza: la nuova configurazione del servizio ha determinato un’intensificazione dei doveri fiduciari imposti agli intermediari, testimoniando un superamento del paradigma di trasparenza e un percorso indirizzato verso un approccio maggiormente interventista sul lato dell’offerta. Le conclusioni sono, peraltro, nel senso di uno sviluppo solo parziale di tale processo, risultando dubbio il valore per il cliente di una consulenza non indipendente e potenzialmente esposta, soprattutto negli intermediari polifunzionali, al conflitto di interessi. Particolare enfasi viene posta sulla necessità di introdurre un’effettiva consulenza indipendente, pur nelle difficoltà che la relativa disciplina incontra, anche in ragione delle caratteristiche specifiche del mercato, nell’ordinamento italiano.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.
Resumo:
La presente ricerca affronta lo studio della formazione delle realtà urbane nell'area dell'antico Ager Gallicus, grossomodo corrispondente all'attuale territorio delle Marche settentrionali. Nel quadro della colonizzazione romana il fenomeno urbano rappresenta, infatti, l'elemento cardine nell'organizzazione di un territorio. Per tale ragione, si è scelto di condurre un lavoro finalizzato alla comprensione dei tempi e dei modi che portarono alla formazione dei municipi e delle colonie nella strutturazione romana del territorio, cercando anche di comprendere le scelte insediative alla base delle singole forme strutturali. L'analisi della genesi e dello sviluppo del fenomeno urbano nell'ager Gallicus ha come obiettivo ultimo l'approfondimento della conoscenza sulla colonizzazione e romanizzazione in area medio adriatica. La ricerca si articola in: uno stato dell'arte delle più recenti interpretazioni storiografiche; una sintesi sulle cosiddette “forme della conquista” (frequentazioni “precoloniali”, realtà santuariali, fondazioni coloniarie, realtà proto-urbane legate all'agro); una dettagliata e aggiornata schedatura storico-archeologica e urbanistico-topografica delle singole realtà urbane dell'ager Gallicus (le colonie di Sena Gallica, Pisaurum, Fanum Fortunae e Aesis, e i municipi di Forum Sempronii, Suasa e Ostra, e Sentinum); una parte conclusiva dove, mettendo a confronto gli elementi alla base della definizione urbana delle realtà esaminate, vengono delineati e sintetizzati i principali modelli di formazione delle città nell'ager Gallicus così individuati (fondazione coloniaria; fondazione coloniaria preceduta da una fase precoloniale nella forma di conciliabulum; nucleo di aggregazione precedente (conciliabulum) scelto quale polo di riferimento del popolamento sparso nel territorio al momento delle distribuzioni viritane; centro di servizio creato in funzione di assegnazioni di terre ai coloni). Infine, viene tracciato un quadro complessivo della romanizzazione dell'ager Gallicus, che, in estrema sintesi, si configura come un processo progressivo di occupazione del territorio rispecchiato dallo sviluppo stesso del fenomeno urbano, ma che si differenzia dalle aree limitrofe o dall'area cisalpina per alcune importanti dinamiche etnico-demografiche.
Resumo:
Il ritrovamento della Casa dei due peristili a Phoinike ha aperto la strada a un’intensa opera di revisione di tutti i dati relativi all’edilizia domestica nella regione, con studi comparativi verso nord (Illiria meridionale) e verso sud (il resto dell’Epiro, ovvero Tesprozia e Molossia). Tutta quest’area della Grecia nord-occidentale è stata caratterizzata nell’antichità da un’urbanizzazione scarsa numericamente e tardiva cronologicamente (non prima del IV sec. a.C.), a parte ovviamente le colonie corinzio-corciresi di area Adriatico- Ionica d’età arcaica (come Ambracia, Apollonia, Epidamnos). A un’urbanistica di tipo razionale e programmato (ad es. Cassope, Orraon, Gitani in Tesprozia, Antigonea in Caonia) si associano numerosi casi di abitati cresciuti soprattutto in rapporto alla natura del suolo, spesso diseguale e montagnoso (ad es. Dymokastro/Elina in Tesprozia, Çuka e Aitoit nella Kestrine), talora semplici villaggi fortificati, privi di una vera fisionomia urbana. D’altro canto il concetto classico di polis così come lo impieghiamo normalmente per la Grecia centro-meridionale non ha valore qui, in uno stato di tipo federale e dominato dall’economia del pascolo e della selva. In questo contesto l’edilizia domestica assume caratteri differenti fra IV e I sec. a.C.: da un lato le città ortogonali ripetono schemi egualitari con poche eccezioni, soprattutto alle origini (IV sec. a.C., come a Cassope e forse a Gitani), dall’altro si delinea una spiccata differenziazione a partire dal III sec., quando si adottano modelli architettonici differenti, come i peristili, indizio di una più forte differenziazione sociale (esemplari i casi di Antigonea e anche di Byllis in Illiria meridionale). I centri minori e fortificati d’altura impiegano formule abitative più semplici, che sfruttano l’articolazione del terreno roccioso per realizzare abitazioni a quote differenti, utilizzando la roccia naturale anche come pareti o pavimenti dei vani.
Resumo:
Il presente elaborato ha lo scopo di descrivere le principali caratteristiche e applicazioni delle biomembrane lipidiche artificiali utilizzate nel campo biochimico e biomedico. Nel Capitolo 1. viene presentata una panoramica generale della membrana cellulare, descrivendo la sua struttura a “mosaico fluido” e i principali componenti che la costituiscono, cioè i lipidi e le proteine transmembrana. Viene quindi descritto uno dei ruoli fondamentali della membrana cellulare, ovvero il trasporto di soluti all’interno e all’esterno della cellula. Vengono schematizzate le tipologie di trasporto, attivo e passivo, e la funzione dei canali ionici, un particolare tipo di proteina transmembrana che permette il passaggio selettivo di ioni dall'esterno all'interno della cellula o viceversa. Il Capitolo 2. si focalizza sui principali modelli di biomembrane lipidiche artificiali. Infatti, a seconda del tipo di metodo e di materiale utilizzato, è possibile ottenere dei prototipi che differiscono per caratteristiche e funzionalità. Verranno illustrate le membrane lipidiche nere (BLM), i doppi strati lipidici (bilayer) con supporto solido (SLB), i bilayer lipidici ibridi e i doppi strati con ammortizzatore polimerico. Per ognuna di queste biomembrane artificiali verranno analizzati i metodi di formazione e gli utilizzi in campo biomedico. Verranno poi descritti i metodi di incorporazione delle proteine nel doppio strato lipidico e le tecniche per stabilizzare il bilayer e realizzare una piattaforma sensoriale. Nel Capitolo 3 verranno presentate le principali applicazioni che utilizzano membrane artificiali, sia per lo studio dei principali processi cellulari di membrana e screening dei farmaci sia per la realizzazione di piattaforme sensorizzate. Infine nel Capitolo 4. si considereranno le innovazioni attese nel campo delle biomembrane artificiali anticipando le loro potenziali applicazioni future. Infatti, le prospettive in questo campo sono molto promettenti soprattutto per quel che riguarda lo screening di nuovi farmaci.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
L'obiettivo della tesi è esplorare i più avanzati dispositivi, sensori e processori per la computazione spaziale, correlarli con i modelli di spatial computing, e derivarne un'architettura concettuale di middleware distribuito che possa supportare le più avanzate applicazioni in mobilità.
Resumo:
Il presente lavoro tratta la progettazione e caratterizzazione di una nuova "listening room" ad acustica controllata partendo dai requisiti dettati dalle norme tecniche ITU-R BS 1116-1 e EBU/UER Tech. doc. 3276. Ad oggi è presente un'ampia letteratura, che tratta approcci per valutazione acustica delle sale di ascolto. Essa inizialmente era volta a trovare proporzioni ideali tra le dimensioni della camera, poi la ricerca si è spostata sull'elaborazione di modelli previsionali. Purtroppo tali metodi spesso non riescono a garantire le prestazioni desiderate, mentre le prove sperimentali dettate dalle norme risultano essere di comprovata validità. L'ambiente oggetto di studio è stato progettato all'interno dello spazio dei laboratori CIRI. La tecnologia costruttiva è frutto di uno studio approfondito, in particolare la scelta di fibre di poliestere termolegate, per il rivestimento delle pareti interne, è stata valutata attraverso misure in camera riverberante secondo UNI-EN-ISO 354. Si è poi seguita una metodologia iterativa che coinvolgesse messa in opera, misurazioni in situ e valutazione tramite confronto con i parametri consigliati dalle normative tecniche sopra citate. In quest'ottica sono state effettuate acquisizioni di risposte all'impulso monoaurali e dei livelli di pressione sonora per verificare la qualità di isolamento e il comportamento alle basse frequenze. La validazione restituisce indicazioni positive per gli utilizzi dell'ambiente ipotizzati e risulta compatibile con le stringenti richieste delle norme tecniche.
Resumo:
In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.