999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
La Flipped Classroom è una metodologia didattica innovativa che prevede una inversione dei momenti classici delle didattica: la lezione frontale a scuola e lo studio individuale a casa. L’idea alla base della Flipped Classroom è utilizzare la tecnologia moderna per diffondere i contenuti fuori dall’orario scolastico così da concentrare poi le ore di lezione sull’elaborazione dei contenuti stessi. In questo modo si riporta l’attenzione didattica sull’elaborazione dei contenuti piuttosto che sul loro ascolto passivo. A seguito dello studio teorico del metodo Flipped ho fatto una esperienza di tirocinio presso una classe terza della Scuola secondaria di primo grado "`Il Guercino"' dell'IC9, in collaborazione con la professoressa Leone, per applicare questa metodologia didattica. Una volta in classe, io e la professoressa, abbiamo considerato più efficace e utile, per gli studenti con cui lavoravamo, fare propedeutica piuttosto che Flipped Classroom. L’esperienza di tirocinio è stata conclusa con un questionario per valutare l’utilizzo, da parte dei nostri studenti, della piattaforma didattica Moodle, in uso nella scuola. I risultati dell’analisi delle risposte è stato conforme a quanto da noi atteso: data l’età i nostri studenti non avevano il giusto grado di autonomia per lavorare con la metodologia della Flipped Classroom.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
Resumo:
Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.
Resumo:
L'obiettivo dell'elaborato è di riproporre i metodi utilizzati dai dottori Pessenhofer H. e Kenner T., e in particolare dimostrarne l'efficienza, per determinare in modo non invasivo gli andamenti di alcuni parametri cardiovascolari tra i quali la pressione ventricolare e quella arteriosa. Utilizzando il software di calcolo Matlab ne viene simulato il metodo e testata l'affidabilità partendo dall'ipotesi di avere a disposizione alcuni parametri noti come: l'andamento dell'elastanza ventricolare tempo variante, la forma d'onda triangolare della portata aortica, il volume sistolico detto anche ''Stroke Volume'', il valore del volume ventricolare di correzione, gli intervalli di tempo sistolici e la curva della pressione arteriosa.
Resumo:
Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Resumo:
Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.
Resumo:
Questa tesi presenta un metodo generale per la costruzione di curve spline generalizzate di interpolazione locale. Costruiremo quest'ultime miscelando polinomi interpolanti generalizzati a blending function generalizzate. Verrano inoltre verificate sperimentalmente alcune delle proprietà di queste curve.
Resumo:
L’impiego della storia della matematica è auspicato oggi più di ieri dalle attuali Indicazioni nazionali per i Licei ed è supportato da numerosi quadri teorici,che traghettano la storia della matematica dalle rive dell’essere artefatto all’essere conoscenza. In particolare nel secondo paragrafo del primo capitolo di questa tesi vengono presentati gli ostacoli epistemologici di Guy Brousseau, l’approccio socio-culturale di Louis Radford, l’approccio ”voci ed echi” di Paolo Boero ed infine lo spaesamento di Barbin. Nel terzo paragrafo vengono analizzati quei contributi che mirano a rendere più operativo l’entusiasmo suscitato dall’uso della storia nell’insegnamento della matematica. Quindi il primo capitolo ha l’obiettivo di porre le basi teoriche all’uso della storia nella trasmissione del sapere matematico; pertanto ho deciso di mettere a punto una sperimentazione da condurre in una classe seconda di Liceo Scientifico avente come oggetto una fonte storica. Come argomento è stato scelto l’irrazionalità, introdotto in tale trattazione nel secondo capitolo: nel primo paragrafo viene trattato il problema della nascita dell’incommensurabilità, mentre nel secondo vengono analizzate le numerose dimostrazioni che sono state proposte nel corso dei secoli in merito all’incommensurabilità di lato e diagonale di un quadrato partendo da Aristotele ed Euclide, passando per Alessandro d’Aforisia e Platone, attraversando le dimostrazioni geometriche e quelle che sfruttano il metodo dell’anthyphairesis, per giungere ad una dimostrazione moderna che non presta il fianco alle critiche aristoteliche proposte da Salomon Ofman. Nel terzo capitolo viene presentata la sperimentazione che ho condotto, anteponendo a ciò i criteri adottati per la scelta del brano, ossia le lezione di Geometria tratta dal Menone di Platone ed un breve tributo alla figura di Platone e alla sua opera da cui è tratto il brano scelto come fonte storica. Tale capitolo è articolato in tre paragrafi: nel terzo vengono descritte dettagliatamente tutte le attività condotte in classe e vengono presentati i lavori e le risposte degli studenti. Infine, nel quarto capitolo, vengono esaminati dettagliatamente i risultati dei ragazzi alla luce dei quadri teorici precedentemente introdotti e vengono messe in luce le peculiarità dell’attività dell’argomentare e le doti e mancanze relative a ciò degli studenti.
Resumo:
L’ossido di grafene è caratterizzato da una elevata quantità di gruppi funzionali contenenti ossigeno sia sulla superficie che sui bordi e grazie ad essi è altamente disperdibile in acqua. Questa peculiare caratteristica permette il suo utilizzo come catalizzatore nelle reazioni in fase liquida. I materiali grafenici possono essere impiegati come catalizzatori e come supporti in diversi campi della catalisi, tra cui la bioraffineria. Uno dei principali derivati da biomasse è il 5-idrossimetilfurfurale (HMF). In questa tesi è stata investigata la reazione di riduzione selettiva del gruppo aldeidico di HMF per ottenere 2,5-bisidrossimetilfurano (BHMF), utilizzato per la produzione di polimeri e come intermedio per la produzione di acido adipico ed esametilediammina. In questo lavoro di tesi si è cercato di sviluppare un catalizzatore in grado di operare a bassa temperatura e con basse pressioni di H2, utilizzando acqua come solvente. Lo scopo di questo lavoro è stato quindi lo studio e la caratterizzazione di catalizzatori eterogenei in pellet a base di Pt/ossido di grafene/ossidi ceramici (TiO2, Al2O3) e la loro applicazione nella reazione di riduzione del 5-idrossimetilfurfurale (HMF) a 2,5-bisidrossimetilfurano (BHMF) in fase liquida. Per lo sviluppo del catalizzatore sono state indagate diverse vie di sintesi e diversi precursori di Pt. Per conoscere le condizioni ottimali di reazione, selezionare il supporto ottimale e studiare l’influenza dell’area superficiale sono stati preparati catalizzatori tradizionali di riferimento in polvere. Le prestazioni dei catalizzatori in polvere sono state inoltre confrontate con i catalizzatori analoghi in pellet per verificare l’influenza del trasferimento di materia. Infine, si è studiata l’influenza del GO nell’attività catalitica utilizzando due forme cristalline di titania. I dati catalitici ottenuti sono stati confrontati con dei catalizzatori convenzionali in polvere di Pt supportato su carbone (grafene e carbone attivo). Le proprietà dei catalizzatori preparati sono state messe in relazione con la loro attività catalitica.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
Il presente elaborato si pone l’obiettivo di far luce su un fenomeno ancora oggetto di pregiudizi e stereotipi: il bilinguismo. Nel primo capitolo si delineano i contorni del bilinguismo e le varie classificazioni per definire il soggetto bilingue, partendo dai vari gradi di competenza, passando poi all'acquisizione del linguaggio nel bilingue precoce e giungendo ad elencare i vantaggi e presentare i luoghi comuni che ancora demonizzano tale fenomeno. Nel secondo capitolo dell’elaborato ci si concentra invece sulla scelta consapevole dei genitori nell’iniziare i figli a un’educazione bilingue sin dalla nascita, indicando i fattori che influenzano il percorso bilingue e portando esempi concreti grazie alla collaborazione di una famiglia italo-francese che ha accettato di sottoporsi a intervista. Nel terzo capitolo viene preso in esame il bilinguismo precoce all'interno di famiglie immigrate, analizzando i fattori che spesso ostacolano lo sviluppo della L2 nel bambino a contatto con due culture. In particolare, attraverso il film Le Gone du Chaâba, si riflette sulla figura del bambino come ponte tra due culture e strumento d’integrazione per la famiglia. Infine, nel quarto ed ultimo capitolo, si mette in luce la percezione sociale del bilinguismo in una società apparentemente governata dal monolinguismo. Si osservano dunque alcune politiche volte ad educare al plurilinguismo e viene presentato un metodo didattico di apprendimento linguistico precoce in un nido d’infanzia locale.
Resumo:
Le tecniche di imaging al seno per la rilevazione di tumori stanno interessando un notevole numero di gruppi di ricerca in campo biomedico soprattutto negli ultimi anni. In particolare si cercano metodologie innovative in quanto le attuali tecniche già sviluppate e utilizzate in campo clinico, mammografia a raggi X e risonanza magnetica (MRI), presentano alcuni limiti. Questa tesi si focalizzerà in particolare su una di queste tecniche emergenti: l’imaging a microonde (MWI). Questo metodo infatti, limita notevolmente i costi, evita disagi per la paziente come la compressione del seno, penetra in modo ottimale nei tessuti e non li ionizza. La MWI si basa sulle diverse proprietà dielettriche, permittività e conduttività, dei vari tessuti che costituiscono la mammella, in particolare tra tessuto sano e maligno. Lo scopo di questa tesi è quello di analizzare tali proprietà dielettriche, le diversità che i vari tessuti presentano e come tutto ciò venga sfruttato per ottenere l’imaging della mammella. In particolare questo lavoro si propone di riportare e analizzare i principali studi sui tessuti biologici della mammella compiuti nel corso degli anni riguardo queste proprietà dielettriche e i rispettivi risultati ottenuti. Si tratteranno inoltre i mezzi di accoppiamento: soluzioni in cui è immerso l’assetto antenne-oggetto che minimizzano la riflessione del segnale sulla pelle e assicurano una migliore qualità di immagine.