945 resultados para equazione di Smoluchowski coefficienti variabili malattia di Alzheimer
Resumo:
la tesi tratta alcuni risultati e applicazioni relative alla teoria delle azioni di gruppi su insiemi finiti, come l'equazione delle classi e il teorema di Cauchy. Infine illustra l'uso di tali risultati nella rappresentazione tramite permutazioni.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
In questa tesi riportiamo le definizioni ed i risultati principali relativi alla corrispondenza tra le successioni di polinomi di tipo binomiale (particolari basi dello spazio dei polinomi a coefficienti reali) e gli operatori delta, cioè operatori lineari sullo spazio dei polinomi che commutano con gli operatori di traslazione e il cui nucleo è costituito dai polinomi costanti. Nel capitolo 1 richiamiamo i concetti fondamentali sull'algebra delle serie formali e definiamo l'algebra degli operatori lineari invarianti per traslazione, dimostrando in particolare l'isomorfismo tra queste algebre. Nel capitolo 2, dopo aver dimostrato l'unicità della successione di base relativa ad un operatore delta, ricaviamo come esempio le successioni di base di tre operatori delta, che useremo durante tutto il capitolo: l'operatore derivata, l'operatore di differenza in avanti e l'operatore di differenza all'indietro. Arriviamo quindi a dimostrare un importante risultato, il Primo Teorema di Sviluppo, in cui facciamo vedere come le potenze di un operatore delta siano una base per l'algebra degli operatori invarianti per traslazione. Introducendo poi le successioni di Sheffer, possiamo dimostrare anche il Secondo Teorema di Sviluppo in cui esplicitiamo l'azione di un operatore invariante per traslazione su un polinomio, tramite un operatore delta fissato e una sua successione di Sheffer. Nell'ultima parte della tesi presentiamo i formalismi e alcune semplici operazioni del calcolo umbrale, che useremo per determinare le cosiddette costanti di connessione, ovvero le costanti che definiscono lo sviluppo di una successione binomiale in funzione di un'altra successione binomiale usata come base dello spazio dei polinomi.
Resumo:
Lo scopo di questo elaborato è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole lupino. I dati relativi a campioni raccolti nel periodo 2008-2015 nella zona tra Cervia e Fano sono stati messi in relazione con alcuni parametri quali salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Marecchia. Sono stati presi in considerazione oltre 350 campioni, in cui i conteggi di E. coli mediante tecnica MPN sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); cariche intermedie (50-230 MPN/100g); cariche alte, ossia non conformi al regolamento europeo (>230 MPN/100g). L’eventuale significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test chi-quadrato e il test di Kruskal-Wallis. Per quanto riguarda il test chi-quadrato, eseguito in relazione ad anno, mese e stagione, si è visto che i campioni più inquinati derivano dagli anni 2010 e 2012, dai mesi novembre/dicembre e in generale dalla stagione autunnale. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che le frequenze dei campioni nelle tre categorie non sono significative in relazione alla salinità. Al contrario, per i parametri temperatura e livello del fiume Marecchia sono stati ottenuti risultati significativi: infatti, le cariche microbiche più alte corrispondono a temperature più basse delle acque e a periodi di maggiore portata del fiume. Questo episodio riflette sicuramente un aspetto biologico legato al ciclo vitale di Chamelea gallina, che vive la sua fase riproduttiva nella stagione più calda, diminuendo quindi la sua attività filtrante, fonte di contaminazione. Al contempo questo andamento è anche spiegabile dall’apporto di contaminanti dalle precipitazioni e dai fiumi che trascinano sostanze organiche inquinanti di natura antropica, che costituiscono fonte di nutrimento per le specie microbiche come E. coli ed altri enterobatteri.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
Resumo:
Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.
Resumo:
I processi di separazione sono tra quelli che consumano più energia nelle nazioni maggiormente industrializzate, questo rende necessaria la ricerca continua di tecnologie e materiali che siano in grado di aumentarne l’efficienza. Uno dei principali campi di studio di questa ricerca riguarda la separazione di gas, in cui le membrane polimeriche si candidano come principale alternativa innovativa ai metodi classici. Questo lavoro di tesi mira all’analisi delle variabili che governano il trasposto di gas attraverso membrane polimeriche di tipo vetroso, alla comprensione dei fenomeni destabilizzanti quali aging e plasticizzazione in termini di cause ed effetti e alla primaria rielaborazione dei dati di letteratura relativi agli stessi fenomeni per verificare analiticamente quanto studiato nella parte precedente. Per fare ciò, operativamente, ci si è serviti del supporto di articoli scientifici che trattano il tema, andando ad estrapolare dati e informazioni rilevanti e delle indicazioni del professor Minelli che da anni è impegnato nella ricerca su questi materiali. Dopo una prima parte introduttiva riguardante le tecnologie a membrana e le loro applicazioni, si passa allo studio approfondito della teoria e alla discussione dei due fenomeni, ai quali viene dedicato un capitolo ciascuno per capirne nel dettaglio le implicazioni che comportano nell’utilizzo di tecnologie a membrane polimeriche. Nella rielaborazione ci si sofferma poi sui film sottili, nell’ordine del micron, che corrispondo alle dimensioni tipiche delle membrane utilizzate per la separazione di gas. Ci si focalizza su miscele contenenti anidride carbonica, gas di estremo interesse sia perché è uno dei maggiori contributori al fenomeno del surriscaldamento globale, sia perché è uno dei principali responsabili della plasticizzazione di un polimero, per via della sua buona solubilità. Si conclude l’elaborato con una breve analisi sulle possibili contromisure riguardanti aging e plasticizzazione.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Il seguente elaborato ha lo scopo di analizzare, attraverso modelli neuro-computazionali, le possibili alterazioni delle risposte in pazienti con malattia di Parkinson, sia indotte da alterazioni del livello di dopamina, sia indotte da modificazioni sinaptiche. Il punto chiave per comprendere i sintomi di PD e il loro deterioramento temporale si deve cercare nel rapporto tra l'attività dei neuroni in BG (in particolare nello striato) e i livelli di dopamina (o levodopa) nel cervello. Di conseguenza, l'obiettivo di questo elaborato è quello di quantificare la connessione tra i livelli di levodopa e performance del finger tapping per mezzo di modelli biologici e simulazioni al computer.
Resumo:
La presente guida alle attività di ricerca del Dipartimento di Ingegneria, ICT e Tecnologie per l’Energia e Trasporti (DIITET) del Consiglio Nazionale delle Ricerche (CNR), vuole fornire un agile e sintetico strumento di conoscenza al quotidiano lavoro svolto dal personale che opera presso gli Istituti afferenti al dipartimento stesso e di quelli appartenenti ad altri dipartimenti che condividono con il DIITET ambiti di ricerca interdisciplinari. I dati attualmente disponibili saranno riferiti a variabili di tre tipi: 1) aree progettuali e, al loro interno, tematiche di ricerca in cui sono attivi gli istituti CNR; 2) personale operante in tali istituti; 3) prodotti di proprietà intellettuale e pubblicazioni degli istituti stessi.
Resumo:
Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.