233 resultados para Turboalternatore, Guasti, Fatica oligociclica, Affidabilità, Probabilità
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
La branca della ricerca impegnata sul fronte riguardante lo studio della proliferazione dei tumori, si è confrontato negli ultimi anni con una forma di patologia in crescente diffusione a livello mondiale. In particolare si è messo in evidenza che, per quanto riguarda la popolazione femminile, la tipologia più diffusa di tumore colpisce il seno e, se non individuata in tempo, rende molto difficile la sopravvivenza dei soggetti in cui si manifesta. Tutto questo ha portato gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. In particolare, un ruolo molto importante per la diagnosi, è ricoperto dalla Mammografia Digitale ( Digital Mammography): una tecnologia biomedicale principalmente deputata allo screening preventivo, in grado di individuare il tumore al suo stato iniziale e di aumentare quindi la probabilità di una completa guarigione. Tale tecnica si è evoluta di pari passo con i grandi progressi nell’ambito dell’ingegneria biomedicale e dell’informatizzazione dei processi all’interno delle strutture ospedaliere. Questa tesi si propone di descrivere il funzionamento e le normative che regolamento la Digital Mammography, seguendone il processo di integrazione all’interno del panorama clinico sanitario. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di presentare a scopo diagnostico se correttamente interfacciata agli altri sistemi che attualmente caratterizzano il parco clinico nelle strutture ospedaliere. L’analisi è stata condotta partendo dagli aspetti che riguardano la trasmissione delle informazioni e delle immagini digitali, passando attraverso la necessità di un ambiente omogeno e funzionale all’interno del quale tali dati possano essere condivisi, fino ad arrivare all’esaminazione degli standard che rendono possibile una condivisione il più possibile diffusa delle informazioni in ambito ospedaliero. L’ultima parte della trattazione intende valutare una tecnica per l’allineamento dei profili del seno relativi ad una stessa paziente, ma provenienti da acquisizioni temporalmente distinte, con lo scopo di fornire uno strumento di diagnosi più efficace e funzionale.
Resumo:
Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.
Resumo:
L'argomento di questa tesi è la multisensorialità sensoriale. L'obbiettivo che abbiamo perseguito è stato quello di utilizzare un modello sviluppato in precedenza per effettuare un'analisi di sensitività e capire il ruolo che hanno i vari fattori per lo sviluppo della rete neurale. Inoltre abbiamo cercato di mostrare come effettivamente tale modello, come da letteratura, effettui una stima bayesiana. Al termine di questo lavoro si è evidenziata la forte influenza degli stimoli cross-modali nell'adattamento automatico della rete verso stimoli più precisi e del ventriloquismo necessario a ponderare gli stimoli a seconda del loro grado di affidabilità. Inoltre è stato dimostrato che attraverso l'utilizzo di una regola di apprendimento realistica, la rete neurale può imparare la funzione di verosimiglianza. Uno stimatore bayesiano di questo tipo riesce a rappresentare realisticamente l'integrazione multisensoriale che il nostro cervello deve intraprendere quando si trova davanti a più stimoli di natura sensoriale diversa. Molto interessanti anche gli sviluppi possibili di questo progetto che verranno accennati nelle ultime parti di questa tesi.
Resumo:
Gli eventi sismici che hanno colpito l’Emilia Romagna nel corso del 2012, hanno mostrato come le strutture in muratura qui presenti siano particolarmente sensibili alle azioni di forze dinamiche. Questa vulnerabilità deriva principalmente dal fatto che gran parte del patrimonio edilizio italiano è stato realizzato prima dell’introduzione di apposite normative antisismiche e, in secondo luogo, dalla qualità dei materiali utilizzati e dalle tecniche “artigianali” di realizzazione. La valutazione della vulnerabilità degli edifici è pertanto un punto fondamentale per poterne stimare il livello di sicurezza in caso di terremoto. In particolare, i parametri fondamentali da studiare sono: Resistenza caratteristica a compressione (f_k): parametro importante per la stima della resistenza alla rottura in corrispondenza di variazioni delle forze verticali, per effetto di un’azione sismica; Resistenza a taglio in assenza di sforzo normale (f_vk0): valore che stima la capacità resistente della muratura quando essa è soggetta a sole azioni taglianti. Gli obbiettivi principali di questa tesi sono: Determinare i parametri medi di resistenza sopra descritti per le murature site in Emilia Romagna; Confrontare valori ottenuti mediante prove semi-distruttive e distruttive al fine di verificare la loro affidabilità.
Resumo:
Lo scopo di questa tesi, legato ad una collaborazione di ricerca industriale, è stato quello di stabilire la natura di aggregati solidi indesiderati che si formano in creme di nocciole e cacao, quando conservate, talora accidentalmente, a basse temperature, in particolare inferiori agli 0°C. L’obiettivo è stato quello di cercare di individuare le ragioni e gli ingredienti responsabili, con più probabilità, del fenomeno per poter dare indicazioni in merito alla formulazione o alla conservazione del prodotto prima e durante la commercializzazione. Sono state campionate due partite di creme di due differenti marche presenti in commercio. Una volta verificato per quali di queste creme e in che misura avesse origine la formazione degli aggregati solidi, si è proceduto ad un loro isolamento, mediante tecniche di estrazione solido-liquido, e successiva analisi gascromatografica degli acidi grassi. Anche per gli ingredienti delle creme di nocciole e cacao si è proceduto ad un’estrazione della componente lipidica ed ad una analisi gascromatografica degli acidi grassi. I risultati ottenuti sono stati elaborati, al fine di individuare gli ingredienti o le condizioni responsabili dell'insorgenza degli aggregati solidi indesiderati. La polvere di cacao è risultata, con più probabilità, l’ingrediente della crema di nocciola e cacao responsabile della formazione degli aggregati indesiderati, e questo ha suggerito la necessità di una verifica della qualità, anche in termini di cristallizzazione, di questo ingrediente, con particolare attenzione, ovviamente, alla frazione grassa (burro di cacao). E’ stato segnalato che un processo tecnologico di produzione non adeguato (tempera), in termini di temperature raggiunte e di mescolamento della crema, così come di conservazione del prodotto finale possono avere una importanza fondamentale nelle eventuali separazioni per condensazione di alcuni componenti della fase lipidica (agglomerati sferici).
Resumo:
Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.
Resumo:
La tesi descrive il T1 mapping, un metodo diagnostico non invasivo emergente per l’identificazione e la quantificazione della fibrosi atriale. Nel primo capitolo ci si è soffermati sulle caratteristiche del tessuto fibrotico e sulle cause che generano tale patologia tra cui la fibrillazione atriale. Nel secondo capitolo vengono descritte le tecniche non invasive comunemente più utilizzate per la valutazione della fibrosi tra cui: sistemi di mappaggio elettronanatomico e risonanza magnetica cardiaca con l’uso di mezzo di contrasto. Nel terzo capitolo sono approfondite tutte le sequenze necessarie per la costruzione di mappe di tempi T1 indagando anche sui fattori a cui la tecnica è più sensibile. Infine è stato dedicato ampio spazio a ricerche mediche sulla correlazione tra i tempi T1 delle camere cardiache, i potenziali elettroanatomici delle stesse e la probabilità di sviluppare fibrillazioni atriali recidive in alcuni pazienti sottoposti ad ablazione transcatetere.
Resumo:
Per limitare gli effetti tossici delle Ag-NPs, si è pensato che esse possano essere utilizzate in forma di microincapsulati, in quanto le microcapsule possono avere una certa velocità di rilascio sotto specifiche condizioni. Incapsulando quindi le Ag-NPs, posso ottenere un rilascio controllato di esse, in modo da ottenere una concentrazione di esse utile allo scopo per cui vengono impiegate, evitando un sovradosaggio che non porterebbe alcun beneficio ma solo a una maggior probabilità di causare effetti tossici.
Resumo:
Questa tesi si focalizza sullo studio del funzionamento dell'asse HPT in esemplari di Tursiops truncatus, mantenuti in ambiente controllato. Sono state analizzate le concentrazioni sieriche di TSH, T3 e T4 su 8 individui, 4 maschi e 4 femmine, lungo un periodo di tempo tra febbraio 2015 e febbraio 2016, tramite prelievo di sangue in concomitanza con i controlli veterinari. Essendo il TSH un ormone specie-specifico e vista l'attuale insesistenza di sistemi per la sua rilevazione in cetacei, si è voluto valutare anche se l'utilizzo di un sistema canino con anticorpi policlonali, fosse efficace per la sua analisi in cetacei. L'analisi è stata condotta tramite il kit "Thyroid Stimulating Hormone (TSH) Canine ELISA" (DRG), da cui è stata ottenuta ottima riproducibilità ed affidabilità. L'analisi degli ormoni tiroidei T3 e T4 è stata condotta tramite i kit CLIA. A seguito dell’analisi con sistema ELISA per TSH canino, tutti i campioni di tursiope hanno presentato concentrazioni superiori al limite di rilevabilità della metodica, pari a 0.01 ng/ml, e tutti rispecchiano e sottolineano la loro attività biologica. Il meccanismo di feeback positivo/negativo è evidenziato dall'analisi statistica: infatti, esiste una correlazione positiva tra T3 e TSH e tra T3 e T4. Per quanto riguarda i valori di T3 e T4 riscontrati, le medie ottenute indicano per il T3 valori di 1,117 ± 0,337 ng/ml e per il T4 10,806 ± 16,933 μg/dl, i quali rientrano nel range indicato dagli studi di Fair et al. (2011) e St. Aubin et al (1996). Le analisi statistiche hanno poi mostrato differenze nelle concentrazioni sieriche di tali ormoni tra maschi adulti, femmine adulte, maschio giovane e femmina giovane. Esse sono però significative solo nel caso del T3 (p= 0,006203), mentre per quanto riguarda TSH e T4, esse non risultano significative (rispettivamente p= 0,951254 e p= 0,131574).
Resumo:
I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.
Resumo:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
Resumo:
Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
Eseguire l'analisi della catena di misura di un sistema di produzione e stoccaggio idrogeno risulta fondamentale per la buona riuscita delle prove in quanto evidenzia e mette in risalto eventuali errori dovuti a strumenti presenti in impianto. Ogni strumento di misura facente parte dell’impianto ha i suoi andamenti e le sue tolleranze. Pertanto si è verificata l'affidabilità delle misurazioni eseguite proponendo delle misurazioni aggiuntive necessarie.