200 resultados para equazione di Smoluchowski coefficienti variabili malattia di Alzheimer


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella tesi viene descritto il Network Diffusion Model, ovvero il modello di A. Ray, A. Kuceyeski, M. Weiner inerente i meccanismi di progressione della demenza senile. In tale modello si approssima l'encefalo sano con una rete cerebrale (ovvero un grafo pesato), si identifica un generale fattore di malattia e se ne analizza la propagazione che avviene secondo meccanismi analoghi a quelli di un'infezione da prioni. La progressione del fattore di malattia e le conseguenze macroscopiche di tale processo(tra cui principalmente l'atrofia corticale) vengono, poi, descritte mediante approccio matematico. I risultati teoretici vengono confrontati con quanto osservato sperimentalmente in pazienti affetti da demenza senile. Nella tesi, inoltre, si fornisce una panoramica sui recenti studi inerenti i processi neurodegenerativi e si costruisce il contesto matematico di riferimento del modello preso in esame. Si presenta una panoramica sui grafi finiti, si introduce l'operatore di Laplace sui grafi e si forniscono stime dall'alto e dal basso per gli autovalori. Al fine di costruire una cornice matematica completa si analizza la relazione tra caso discreto e continuo: viene descritto l'operatore di Laplace-Beltrami sulle varietà riemanniane compatte e vengono fornite stime dall'alto per gli autovalori dell'operatore di Laplace-Beltrami associato a tali varietà a partire dalle stime dall'alto per gli autovalori del laplaciano sui grafi finiti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Partendo da uno studio preliminare riguardante le specifiche di progetto, è stato sviluppato un dispositivo di supporto statico atto all’ausilio di persone con deficit all’arto superiore. Il dispositivo è stato pensato per permettere il bloccaggio (sul piano o nello spazio) di una determinata categoria di oggetti, in modo da rendere possibile ai soggetti ai quali è indirizzato tutta una serie di mansioni, per loro altrimenti impossibili o comunque molto difficili da svolgere. Il dispositivo, completo di ogni sua parte, è stato disegnato al CAD, ne è stato spiegato il funzionamento qualitativo ed è stato sviluppato un modello matematico grazie al quale è possibile il calcolo di alcune variabili in gioco, in particolare del valore delle costanti elastiche delle molle presenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il gruppo di tecnologie e sistemi di lavorazione del Dipartimento di Ingegneria Industriale, D.I.N, dell’Università di Bologna ha compiuto in collaborazione con il Dipartimento IUL della TU di Dortmund, negli ultimi anni, due campagne sperimentali effettuando processi di estrusione di leghe di alluminio. Nella prima, utilizzando leghe AA6060 e il metodo della visioplasticità, sono stati raccolti dati volti a ricavare le condizioni di attrito di tali processi, tramite confronto con valori ottenuti in simulazioni agli elementi finiti. Nella seconda, utilizzando invece una lega AA6082, è stata valutata la microstruttura al fine di permettere, tramite programmi agli elementi finiti, la determinazione di correlazioni fra variabili che prevedano la dimensione della microstruttura della lega stessa a seguito di lavorazioni per deformazione plastica. Basandosi quindi su queste prove sperimentali e utilizzando il software “QuantorForm versione 7.2.4”, è stato svolto il lavoro di tesi finalizzato a conseguire i seguenti obiettivi: • individuare il modello di attrito che si sviluppa nei processi di estrusione analizzati per la lega di alluminio AA6060; • determinare i parametri di settaggio ottimale del software, confrontando i risultati ottenuti nelle simulazioni con quelli sperimentali; • determinare le curve che descrivono la dimensione di un grano cristallino di AA6082 in funzione della deformazione; • implementare come subroutine in Qform, tramite l’utilizzo del linguaggio “Lua”, il modello di microstruttura ottenuto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella tesi vengono proposte una modellazione di un quadrotor affetto da un campo vettoriale incognito aerodinamico e la sua identificazione basata su non linear geometric approach e su reti neurali a funzione di base radiale (RBF). Il non linear geometric approach viene utilizzato per il disaccoppiamento delle componenti incognite aerodinamiche mentre le modellazione RBF dei coefficienti permette di applicare un algoritmo ai minimi quadrati per l'identificazione del sistema. Infine viene implementato un simulatore in ambiente MATLAB Simulink per la validazione della metodologia. Le simulazioni effettuate dimostrano la bontà del metodo proposto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I giunti ibridi sono impiegati in molte applicazioni meccaniche, avendo molti vantaggi, tra i quali quello di aumentare il carico trasferibile. Ci sono state ricerche in merito, le quali hanno valutato la dipendenza della resistenza a taglio di questi giunti rispetto a numerose variabili. Abbiamo poche informazioni, però, sulla dipendenza rispetto all'ER (Engagement Ratio, rapporto tra lunghezza e diametro di accoppiamento). Con questo lavoro la si vuole studiare nel caso di accoppiamenti con gioco in presenza di adesivo, considerando quattro livelli di ER. Per questo sono state effettuate prove di spiantaggio su pin e collar, dalle quali è risultata la presenza di una possibile dipendenza tra le due grandezze, seppur minima.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il progetto sperimentale è stato focalizzato alla valutazione qualitativa di oli extra vergini di oliva monovarietali (Nostrana di Brisighella, Ghiacciola, Don Carlo), prodotti da olive coltivate nell’areale Brisighellese analizzandoli sia per alcuni parametri chimici che per alcune caratteristiche sensoriali rilevabili in fase gustativa (attributi di amaro e piccante). Per ogni campione sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera, numero di perossidi, estinzioni specifiche nell’ultravioletto, composizione in acidi grassi ed analisi sensoriale secondo il metodo del “Panel test”. Gli oli sono stati anche sottoposti alla caratterizzazione della frazione biofenolica mediante estrazione secondo metodo COI (COI/T.20/Doc. n.29) seguita da separazione cromatografica HPLC ed identificazione guidata sia da rivelatore a fotodiodi (DAD) che da spettrometro di massa (MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata (PCA) valutando sia le correlazioni esistenti tra le variabili, che la possibilità di discriminare i campioni in gruppi omogenei per caratteristiche chimiche e/o sensoriali. Più specificatamente, si è rivolta l'attenzione alle relazioni esistenti tra la concentrazione in singole molecole a struttura fenolica e l'intensità degli attributi sensoriali positivi, amaro e piccante. In ultima analisi, si è proceduto a determinare il contenuto totale in derivati fenolici dell’idrossitirosolo e tirosolo (semplici e complessi) presenti in 20 g di olio per verificare la conformità al claim salutistico approvato dall'EFSA nel 2011 “i polifenoli dell’olio di oliva contribuiscono alla protezione dei lipidi ematici dallo stress ossidativo”, che è possibile inserire in etichetta qualora il prodotto soddisfi il limite richiesto dal Reg. UE 432/2012.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro principale di questa tesi è stato quello di fornire gli spettri di particolari coefficienti, detti Magnification Factors, da utilizzare in associazione con gli spettri degli spostamenti già forniti dalla normativa quando si ha a che fare con strutture eccentriche a 3 gradi di libertà per ricavare una prima stima di alcuni punti notevoli di tali strutture (spostamenti longitudinali del centro di massa, del lato flessibile e del lato rigido). In particolare tali Magnification Factors, che dipendono esclusivamente da parametri fisici della struttura (i.e. Ωθ, ξ, e, TL, R), vanno moltiplicati per il valore di spostamento spettrale ricavato dalla normativa entrando nello spettro degli spostamenti con il periodo longitudinale disaccoppiato (TL) della struttura. Il risultato di questo prodotto è lo spostamento longitudinale del punto notevole della struttura eccentrica cui ogni Magnification Factors si riferisce. Gli spettri dei Magnification Factors sono stati ricavati attraverso l’integrazione diretta dell’equazione del moto del sistema dinamico ad 1 piano a 3 gradi di libertà.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’osteoartrosi è la malattia delle articolazioni più comune al mondo ed è spesso causa di condizioni fortemente disabilitanti. Date le limitazioni dei trattamenti attualmente proposti per la gestione dei pazienti osteoartrosici è di grande interesse la ricerca di soluzioni alternative. A tal fine Fin-Ceramica S.p.A. desidera progettare un innovativo sostituto osteocondrale in collagene attivato con un’emergente classe di macromolecole polimeriche: i dendrimeri. Questi polimeri offrono un’unica opportunità di mostrare all’interfaccia con il tessuto naturale una pluralità di gruppi funzionali favorendo, con un’adeguata ingegnerizzazione, le interazioni biologiche e sostenendo la vitalità e l’attività cellulare. In questo lavoro di tesi, con in mente una futura convalida di processo necessaria a garantire la sicurezza e l’affidabilità del prodotto, sono stati sviluppati nuovi metodi per verificare ed ottimizzare la reazione di sintesi del dendrimero, per caratterizzare il materiale ottenuto e per creare legami covalenti fra collagene e dendrimero attivando potenzialmente il sostituto osteocondrale. Il primo obiettivo è stato conseguito sfruttando la presenza o l’assenza di gruppi amminici disponibili ai terminali del dendrimero in crescita e la formazione di un prodotto di scarto cromoforo durante la sintesi. In relazione a questi elementi sono stati individuati metodi semplici ed efficaci, quali la spettrofotometria ultravioletta ed i saggi colorimetrici con TNBS e ninidrina, per monitorare ogni step di reazione portandolo a compimento e ricavare i tempi necessari a tale scopo. Il dendrimero ottenuto è stato quindi caratterizzato tramite spettrometria infrarossa in trasformata di Fourier. Nota la composizione teorica della nostra macromolecola quest’analisi ha consentito l’identificazione del materiale prodotto ed ha inoltre permesso di dimostrare la ripetibilità dello specifico processo di sintesi dendrimerica. Infine per individuare una possibile procedura di funzionalizzazione del collagene con il dendrimero sono stati sperimentati due differenti metodi relativi a due diversi agenti crosslinkanti. Per rilevare un’eventuale modifica delle proprietà superficiali dei campioni realizzati, conseguente alla presenza dei dendrimeri, ne è stata valutata la bagnabilità attraverso la misura dell’angolo di contatto. La determinazione per uno dei due metodi di un significativo aumento di idrofilicità rispetto al campione di controllo ha verificato la fattibilità della reazione di funzionalizzazione del collagene con il dendrimero sintetizzato in questa ricerca identificando un possibile reagente ed una relativa procedura. I risultati ottenuti da queste ricerche costituiscono informazioni necessarie all’attività di convalida del processo di sintesi del dendrimero ed alla realizzazione del sostituto osteocondrale attivato progettato da Fin-Ceramica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le funzioni polinomiali possono essere utilizzate per approssimare le funzioni continue. Il vantaggio è che i polinomi, le loro derivate e primitive, possono essere rappresentati in maniera semplice attraverso i loro coefficienti ed esistono algoritmi stabili e veloci per valutarli. Inoltre gli spazi polinomiali godono di numerose proprietà importanti. In questo lavoro ci occuperemo di altri spazi funzionali, noti in letteratura come spazi di Chebyshev o polinomi generalizzati, per ragioni di riproducibilità. Infatti ciò che si ottiene attraverso i polinomi è soltanto una approssimazione che spesso risulta essere insufficiente. E' importante, quindi, considerare degli spazi in cui sia possibile avere una rappresentazione esatta di curve. Lo studio di questi spazi è possibile grazie alla potenza di elaborazione degli attuali calcolatori e al buon condizionamento di opportune basi di rappresentazione di questi spazi. Negli spazi polinomiali è la base di Bernstein a garantire quanto detto. Negli spazi di Chebyshev si definisce una nuova base equivalente. In questo lavoro andremo oltre gli spazi di Chebyshev ed approfondiremo gli spazi di Chebyshev a tratti, ovvero gli spazi formati dall'unione di più spazi del tipo precedente. Si dimostrerà inoltre l'esistenza di una base a tratti con le stesse proprietà della base di Bernstein per gli spazi polinomiali.