978 resultados para Carathéodory teorema estensione misura
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.
Resumo:
Metastasi ossee, osteoporosi e traumi sono le cause più comuni di fratture vertebrali che possono portare a conseguenze severe. In particolare, le fratture determinate da patologie e dall’invecchiamento colpiscono soprattutto il tratto toraco-lombare che è quello che sopporta la maggior parte dei carichi. Inoltre, le attività quotidiane inducono dei complessi scenari di carico sulla colonna vertebrale. Pertanto la misura di carichi in vivo ha un grande interesse clinico e biomeccanico dal momento che può essere necessaria per studiare il mal di schiena, le fratture vertebrali, il progetto di impianti, ecc. Tuttavia, le misure in vivo hanno il limite di essere invasive. Invece, le prove sperimentali hanno il vantaggio di essere non invasive, anche se presentano alcune limitazioni intrinseche quali la difficoltà di misurare le tensioni o le deformazioni che non siano sulla superficie delle vertebre e l’aumento della complessità e del costo delle prove nel momento in cui si vogliano fare misurazioni addizionali o sperimentare condizioni diverse. In alternativa, il comportamento meccanico delle strutture ossee può essere investigato con modelli numerici agli elementi finiti validati da prove sperimentali. È in questo contesto che va inserito il presente lavoro. Questa tesi ha lo scopo di cominciare un progetto sulla caratterizzazione biomeccanica di vertebre toraciche e lombari di soggetti affetti da osteoporosi da cui si ricaveranno i dati necessari per validare un modello agli elementi finiti. In particolare, durante i test meccanici si vuole riprodurre la tipica fattura vertebrale causata dall’osteoporosi, l’anterior wedge fracture. Le prove meccaniche sono state eseguite nel Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna, mentre il modello agli elementi finiti sarà sviluppato dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli. Una volta validato, il modello sarà utilizzato per fare simulazioni di rottura in vivo.
Resumo:
L’osteoartrosi è la malattia delle articolazioni più comune al mondo ed è spesso causa di condizioni fortemente disabilitanti. Date le limitazioni dei trattamenti attualmente proposti per la gestione dei pazienti osteoartrosici è di grande interesse la ricerca di soluzioni alternative. A tal fine Fin-Ceramica S.p.A. desidera progettare un innovativo sostituto osteocondrale in collagene attivato con un’emergente classe di macromolecole polimeriche: i dendrimeri. Questi polimeri offrono un’unica opportunità di mostrare all’interfaccia con il tessuto naturale una pluralità di gruppi funzionali favorendo, con un’adeguata ingegnerizzazione, le interazioni biologiche e sostenendo la vitalità e l’attività cellulare. In questo lavoro di tesi, con in mente una futura convalida di processo necessaria a garantire la sicurezza e l’affidabilità del prodotto, sono stati sviluppati nuovi metodi per verificare ed ottimizzare la reazione di sintesi del dendrimero, per caratterizzare il materiale ottenuto e per creare legami covalenti fra collagene e dendrimero attivando potenzialmente il sostituto osteocondrale. Il primo obiettivo è stato conseguito sfruttando la presenza o l’assenza di gruppi amminici disponibili ai terminali del dendrimero in crescita e la formazione di un prodotto di scarto cromoforo durante la sintesi. In relazione a questi elementi sono stati individuati metodi semplici ed efficaci, quali la spettrofotometria ultravioletta ed i saggi colorimetrici con TNBS e ninidrina, per monitorare ogni step di reazione portandolo a compimento e ricavare i tempi necessari a tale scopo. Il dendrimero ottenuto è stato quindi caratterizzato tramite spettrometria infrarossa in trasformata di Fourier. Nota la composizione teorica della nostra macromolecola quest’analisi ha consentito l’identificazione del materiale prodotto ed ha inoltre permesso di dimostrare la ripetibilità dello specifico processo di sintesi dendrimerica. Infine per individuare una possibile procedura di funzionalizzazione del collagene con il dendrimero sono stati sperimentati due differenti metodi relativi a due diversi agenti crosslinkanti. Per rilevare un’eventuale modifica delle proprietà superficiali dei campioni realizzati, conseguente alla presenza dei dendrimeri, ne è stata valutata la bagnabilità attraverso la misura dell’angolo di contatto. La determinazione per uno dei due metodi di un significativo aumento di idrofilicità rispetto al campione di controllo ha verificato la fattibilità della reazione di funzionalizzazione del collagene con il dendrimero sintetizzato in questa ricerca identificando un possibile reagente ed una relativa procedura. I risultati ottenuti da queste ricerche costituiscono informazioni necessarie all’attività di convalida del processo di sintesi del dendrimero ed alla realizzazione del sostituto osteocondrale attivato progettato da Fin-Ceramica.
Stima ottimale del guadagno del filtro di Kalman per l'analisi del cammino tramite sensori inerziali
Resumo:
L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.
Resumo:
Nel presente lavoro è progettato e sviluppato un sistema dual-fuel diesel/benzina per combustioni di tipo RCCI, e sono esposti i risultati sperimentali in termini di prestazioni ed emissioni. E' inoltre descritto e implementato un algoritmo di stima dell'MFB50 a partire dalla sola misura della velocità motore.
Resumo:
In questo elaborato è stata discussa la preparazione di coating grafenici su film polimerici per migliorare le proprietà barriera ai gas. Le tecniche impiegate per l’applicazione dei coating sono basate sulla teoria dell’accrescimento layer by layer e sul trasferimento a pressione di materiale filtrato. Queste tecniche sono state riprodotte in laboratorio su tre tipologie di grafene: ossido di grafene, grafene sospeso in acqua e polvere di grafene commerciale per osservare le condizioni operative e i risultati. Dagli esperimenti condotti si sono ottenuti campioni che sono stati testati su uno strumento per la misura della permeabilità ai gas. Nello stesso periodo è stato messo a punto un metodo analitico spettrofotometrico per la stima della concentrazione di grafene all’interno di soluzioni e sospensioni.
Resumo:
La realizzazione della componentistica satellitare è una disciplina innovativa e sempre in aggiornamento, capitanata dall’obiettivo di minimizzare il peso e il volume delle componenti e concretizzare così missioni satellitari affidabili ma sempre più economiche. Questo lavoro di tesi viene svolto nell’ambito di strumenti per la simulazione di sistemi di controllo di assetto di un satellite in orbita bassa terrestre. Il lavoro è volto ad ottenere uno strumento per compiere studi preliminari di missioni di microsatelliti, che sia dotato della possibilità di scegliere più combinazioni di attuatori e sensori e che permetta di valutare la bontà e i vantaggi derivanti dalla scelta di tali configurazioni scelte. Il punto di partenza è stato un simulatore realizzato in ambiente Matlab/Simulink per il monitoraggio di uno specifico microsatellite, ALMASat-1 dell’Università di Bologna. Vi sono stati aggiunti dei tools allo scopo di aggiornare il simulatore a nuove tecnologie e di consentire di realizzare diverse combinazioni di determinazione e controllo in assetto. Si presenterà inizialmente l’interfaccia grafica realizzata per facilitare l’utilizzo del simulatore e si mostreranno successivamente le modifiche apportate in concomitanza con l’aggiornamento del simulatore. Tra le innovazioni applicate al simulatore si annoverano la possibilità di far iniziare la simulazione in precisi stadi di assetto, permettendo all’utente di discriminare solo le fasi ad egli utili, e il miglioramento del sistema di determinazione dell’assetto, compiuto aggiungendo al sistema un simulatore di sensore di stelle, il più accurato tra tutti i sensori e il cui utilizzo, tipicamente riservato a missioni ad elevato budget, si è reso recentemente compatibile, in termini di dimensioni peso e costi, anche a piattaforme satellitari di dimensioni ridotte. Per entrambi gli aspetti verranno mostrate le rispettive modalità di realizzazione, ponendo particolare attenzione all’analisi posta per l’implementazione di uno strumento di misura. Infine sarà presente una discussione sui vantaggi offerti dal simulatore rinnovato.
Resumo:
L’obiettivo della seguente tesi è quello di illustrare le condizioni in cui avviene il trasferimento di conoscenza da consulente a cliente, e come questo sia il fattore abilitante per l’esistenza e l’utilizzo di tale figura professionale da parte delle organizzazioni. Questa tesi nasce dall’esperienza vissuta durante la partecipazione alla XXIV edizione di Junior Consulting, un programma organizzato da CONSEL - ELIS presso Roma, che ha permesso al sottoscritto di prendere parte al progetto di consulenza “Engineering & Construction - Performance Monitoring System” commissionato da Enel Green Power. L’esigenza manifestata dall’azienda era quella di riuscire ad avere una visione chiara e definita della qualità delle attività svolte dalla funzione Engineering & Construction (E&C) e quindi l’obiettivo del progetto si è concretizzato nella definizione di un set di KPI idoneo a rappresentare una misura delle performance della suddetta funzione. Avendo testato, seppure per pochi mesi, l’attività consulenziale, il candidato ha compiuto uno studio teorico che andasse ad analizzare in dettaglio l’attività del consulente, la sua importanza nel mondo economico, il contesto in cui opera e i principali dibattiti accademici di cui è protagonista negli ultimi anni. Nell’elaborato viene analizzato il caso pratico sulla base degli studi della letteratura, con lo scopo di formulare un modello che descriva l’approccio che il consulente dovrebbe avere, durante lo svolgimento delle sue attività, per la realizzazione del trasferimento di conoscenza. Nel primo capitolo è riportato uno studio relativo all’importanza e agli effetti che le società di consulenza hanno avuto nell’ultimo secolo ed in particolare negli ultimi 30 anni. Nel secondo capitolo è descritto il core asset delle società di consulenza, ovvero la conoscenza, e come questa è strutturata e gestita. Nel terzo capitolo sono analizzate le principali teorie sviluppate sulla figura del consulente, sia l’evoluzione storica che le principali posizioni ancora oggi oggetto di dibattito. Nel quarto capitolo l’attenzione è focalizzata sul trasferimento di conoscenza da consulente a cliente e sulle condizioni in cui questo può avvenire. Nel quinto capitolo è presentato il progetto sopracitato, i cui risultati sono riportati negli allegati 1 e 2. Infine, nel sesto capitolo, è presentato un modello di approccio del consulente ottenuto dall’analisi critica del caso pratico sulla base delle evidenze emerse dallo studio della letteratura.
Resumo:
L’elaborato di tesi, che rientra nell’ambito di un progetto di collaborazione tra l’equipe del laboratorio ICM “Silvio Cavalcanti”, coordinato dal professor Giordano, e il CVG (Computer Vision Group) coordinato dal professor Bevilacqua, mira alla messa a punto di un sistema di misura quantitativa di segnali fluorescenti, tramite l’elaborazione di immagini acquisite in microscopia ottica.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
Enunciati indipendenti dagli assiomi dell'aritmetica di Peano; è rivolta particolare attenzione all'indipendenza del teorema di Goodstein.