945 resultados para equazione di Smoluchowski coefficienti variabili malattia di Alzheimer
Resumo:
Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
In questi tesi viene studiata la teoria classica di diffusione del calore come modello parabolico per cui viene calcolata una soluzione attraverso il metodo di separazione delle variabili e il metodo delle onde dispersive. Viene poi affrontata la teoria alternativa proposta da Cattaneo del modello iperbolico del calore, allo scopo di superare il paradosso di velocità di propagazione infinita. Si conclude con alcuni esempi in cui lo stesso ragionamento viene applicato in diverse teorie diffusive e di reazione-diffusione in ambiti bio-matematici, come ad esempio la dinamica delle popolazioni.
Resumo:
Un problema classico in matematica, che presenta numerose applicazioni anche al di fuori di tale disciplina, è la ricerca delle radici di un polinomio. Per quanto riguarda i polinomi di grado minore o uguale a 4 ci sono delle formule per determinare le radici a partire dai coefficienti, mentre per il generico polinomio di grado maggiore o uguale a 5 formule simili non esistono. È possibile, però, determinare in modo approssimato le radici di un polinomio, o stimare il numero di radici reali di un polinomio reale in un dato intervallo, o ancora localizzare nel piano complesso gli zeri di un polinomio a coefficienti complessi.
Resumo:
Studio osservazionale condotto presso la Dermatologia dell'Università di Bologna atto a valutare l'efficacia di methotrexate e, in particolare, la sua influenza sui titoli degli autoanticorpi patogeni nei pazienti affetti dalla malattia rara Pemfigoide Bolloso
Resumo:
La ricerca dottorale che ho sviluppato si propone di analizzare il percorso di valutazione della genitorialità recentemente delineato dai servizi sociali territoriali della provincia di Bologna attraverso la sperimentazione di strumenti per la diagnosi sociale, valutando gli esiti dell’applicazione, anche in confronto all’utilizzo di metodi tradizionali. Il progetto ha il suo fulcro tematico, nel qualificare le pratiche professionali, con il fine ultimo di giungere ad un percorso di diagnosi sociale scientificamente fondato. Il mio obbiettivo quindi non è stato analizzare in termini astratti e idealtipici le metodologie professionali di riferimento per i 32 operatori coinvolti, quanto piuttosto di formarli all’utilizzo di una serie di strumenti elaborati nelle fasi precedenti del progetto, e condurre una ricerca empirica su un numero, sufficientemente ampio, di “casi concreti” costituito da nuclei familiari in carico ai servizi sociali. Più precisamente l'ambito privilegiato d’analisi è stato individuato nel rapporto tra operatore ed utente, allo scopo di evidenziare pregi e difetti dell'utilizzo di strumenti professionali finalizzati alla diagnosi sociale. Inoltre va sottolineato che l’analisi della letteratura sul tema ha evidenziato l’esistenza di un numero molto limitato di studi empirici sulle metodologie di servizio sociale, condotti peraltro su un numero di casi e di variabili molto ristretto, e per lo più in territorio statunitense, dove il sistema di Welfare si caratterizza per una impostazione tale da rendere veramente difficile la comparazione con la realtà italiana. Quello a cui ho inteso pervenire non è un giudizio ultimo sull’efficacia di questa specifica metodologia tout-court, ma piuttosto analizzare, attraverso l’utilizzo di materiali quanti-qualitativi derivati dalla sperimentazione, quelle che sono le condizioni che si vengono a determinare quando, nel percorso di presa in carico sociale, vengono introdotti strumenti specifici, metodologia chiara e alto coinvolgimento delle componenti relazionali del processo: operatori, familiari e rete sociale allargata.
Resumo:
I sarcomi dei tessuti molli sono un gruppo eterogeneo di tumori maligni di origine mesenchimale che si sviluppa nel tessuto connettivo. Il controllo locale mediante escissione chirurgica con margini ampi associato alla radioterapia e chemioterapia è il trattamento di scelta. Negli ultimi anni le nuove scoperte in campo biologico e clinico hanno sottolineato che i diversi istotipi posso essere considerati come entità distinte con differente sensibilità alla chemioterapia pertanto questa deve essere somministrata come trattamento specifico basato sull’istologia. Tra Ottobre 2011 e Settembre 2014 sono stati inclusi nel protocollo di studio 49 pazienti con sarcomi dei tessuti molli di età media alla diagnosi 48 anni (range: 20 - 68 anni). I tumori primitivi più frequenti sono: liposarcoma mixoide, sarcoma pleomorfo indifferenziato, sarcoma sinoviale. Le sedi di insorgenza del tumore erano più frequentemente la coscia, il braccio e la gamba. 35 pazienti sono stati arruolati nel Braccio A e trattati con chemioterapia standard con epirubicina+ifosfamide, 14 sono stati arruolati nel Braccio B e trattati con chemioterapia basata sull’istotipo. I dati emersi da questo studio suggeriscono che le recidive locali sembrano essere correlate favorevolmente alla radioterapia ed ai margini chirurgici adeguati mentre la chemioterapia non sembra avere un ruolo sul controllo locale della malattia. Anche se l'uso di terapie mirate, che hanno profili di tossicità più favorevoli e sono quindi meglio tollerate rispetto ai farmaci citotossici è promettente, tali farmaci hanno prodotto finora risultati limitati. Apparentemente l’insieme delle terapie mirate non sembra funzionare meglio delle terapie standard, tuttavia esse devono essere esaminate per singolo istotipo e confrontate con il braccio di controllo. Sono necessari studi randomizzati controllati su ampie casistiche per valutare l’efficacia delle terapie mirate sui differenti istotipi di sarcomi dei tessuti molli. Inoltre, nuovi farmaci, nuove combinazioni e nuovi schemi posologici dovranno essere esaminati per ottimizzare la terapia.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Introduzione e scopo: la rapida diffusione delle malattie dismetaboliche sta modificando l’epidemiologia dell’epatocarcinoma (HCC). Scopo della tesi è, attraverso quattro studi, analizzare l’impatto di questi cambiamenti nella gestione clinica del paziente affetto da HCC. Materiali e metodi: quattro studi di coorte, condotti con analisi retrospettiva del database ITA.LI.CA. Studio 1:3658 pazienti arruolati tra il 01-01-2001 ed il 31-12-2012 suddivisi in base alla data di diagnosi:2001-2004 (954 pazienti), 2005-2008 (1122 pazienti), 2009-2012 (1582 pazienti). Studio 2:analisi comparativa tra 756 pazienti con HCC-NAFLD e 611 pazienti con HCC-HCV. Studio 3:proposta di quattro modelli alternativi al BCLC originale con validazione di una proposta di sottostadiazione dell’intermedio, considerando 2606 pazienti arruolati tra il 01-01-2000 e il 31-12-2012 e riallocati secondo gradi diversi di perfomance status (PS). Studio 4:analisi di 696 pazienti con HCC in stadio intermedio diagnosticato dopo il 1999 stratificati per trattamento. Risultati: studio 1:progressivo aumento dell’età alla diagnosi e delle eziologie dismetaboliche; più frequente esordio dell’HCC in stadio precoce e con funzione epatica più conservata; aumento della sopravvivenza dopo il 2008. Studio 2:i pazienti con HCC-NAFLD mostrano più frequentemente un tumore infiltrativo diagnosticato fuori dai programmi di sorveglianza, con prognosi peggiore rispetto ai pazienti HCC-HCV. Questa differenza di sopravvivenza si elimina rimuovendo i fattori di confondimento attraverso propensity analysis. Studio 3:il PS1 non è un predittore indipendente di sopravvivenza. Il modello 4 (considerando PS1=PS0 e con la sottostadiazione proposta), ha la migliore capacità discriminativa. Studio 4:i trattamenti curativi riducono la mortalità più della TACE, anche dopo propensity analysis. Conclusioni: l’aumento delle patologie dismetaboliche comporterà diagnosi di malattia ad uno stadio più avanzato, quando sintomatica, rendendo necessario stabilire un programma di sorveglianza. Inoltre per una migliore stratificazione e gestione dei pazienti, bisogna riconsiderare il ruolo del PS ed offrire un ventaglio di opzioni terapeutiche anche per il pazienti in stadio intermedio.
Resumo:
Nel presente studio ci si è proposti di valutare la presenza e diffusione della leishmaniosi in una provincia dell’Italia centrale (Rieti) che, per caratteristiche ambientali (prevalentemente montuosa, clima freddo-secco) poco sembra prestarsi al ciclo della malattia. A questo scopo sono stati calcolati: i) sieroprevalenza grezza nella popolazione canina (2006-2013) e prevalenza media annuale ii) casi di leishmaniosi viscerale (LV) e cutanea (LC) (2000-2013). Catture di flebotomi sono state effettuate per due stagioni consecutive (2011-2012) per ogni sito sono stati registrati i dati climatici (temperatura, umidità etc.) ed altitudine. I flebotomi sono stati sottoposti a ricerca di Leishmania mediante PCR. La sieroprevalenza grezza per leishmania varia da 0 a 76,9% e la prevalenza media annuale non presenta un trend lineare. Sono stati registrati 6 casi di LV tutti in pazienti italiani tutti residenti in provincia di Rieti. I flebotomi sono stati rilevati in 5 dei 6 siti monitorati fino agli 800 m s.l.m., seppur con basse densità. Sono state identificate le seguenti specie: P. perniciosus (6,4 %), P. perfiliewi (1,8%), P. mascittii (0,1%) e S. minuta (91,7 %). E’ stata rilevata una correlazione statisticamente significativa (r=0,69, p<0,001) tra numero di flebotomi e temperatura giornaliera (Tmed°C) ed una correlazione negativa significativa (r= -0,51, p<0,05) con l’umidità relativa (Umed%). La ricerca di leishmania ha dato esito negativo in tutti i flebotomi analizzati. Questi rilievi suggeriscono l’endemia della leishmaniosi nella provincia di Rieti.
Resumo:
La Fusariosi della spiga (FDS) è una fitopatia diffusa a livello mondiale che colpisce le colture cerealicole, tra cui il frumento duro, ed è in grado di causare gravi danni di tipo qualitativo ed economico. Le specie fungine responsabili appartengono al genere Fusarium, tra cui F. graminearum, F. culmorum e più recentemente F. poae. La conseguenza più rilevante riguarda la contaminazione della granella da micotossine, molecole prodotte dai miceti, considerate dalla comunità scientifica ad alto rischio per la salute dell’uomo e animali. L’eziologia è molto complessa, dal momento che su una stessa spiga di frumento possono coesistere più specie fungine che contribuiscono ad influenzare i quantitativi di micotossine prodotte. Lo scopo della ricerca è incentrato sulla caratterizzazione di ceppi di F. poae, in termini di potenziale patogeno e aggressività. Tramite l’allestimento di un saggio di inoculazione in vitro “Petri-dish” è stato possibile attribuire un indice di aggressività a ciascun isolato fungino, basato su parametri quali AUHPC e AUDPC standard, insieme ad altre variabili come la riduzione della lunghezza del coleottile e del tasso di germinazione. Il saggio è stato esteso anche a F. culmorum, per valutare la riproducibilità del test su altre specie fungine. Il test in vitro offre diversi vantaggi, tra cui affidabilità e rapidità di esecuzione ed è quindi adatto allo screening di ceppi patogeni da utilizzare in successive sperimentazioni. Gli stessi ceppi di F. poae, provenienti da una prova di inoculazione artificiale in serra su piante di frumento duro, sono stati caratterizzati dal punto di vista bio-molecolare. Poichè lo studio della fusariosi della spiga richiede la determinazione quantitativa della biomassa dei patogeni nei tessuti della pianta-ospite, anche in assenza di sintomi, il protocollo di Real-Time PCR con chimica SYBR® Green I qui sviluppato, ha dimostrato essere un buon compromesso tra attendibilità, rapidità e costi complessivi della metodica.