324 resultados para terapie avanzate
Resumo:
Lo scopo di questo lavoro di tesi è quello di sviluppare un prototipo di scaffold tri-strato che favorisca la rigenerazione del tessuto parodontale, mimando i differenti tessuti mineralizzati del parodonto per il trattamento, in particolare, delle parodontiti avanzate.Le prime attività si baseranno sulla definizione di un metodo che permetta la standardizzazione della fase dei lavaggi inerente al processo di produzione dello scaffold parodontale. Tale fase risulta, infatti, altamente operatore-dipendente e pertanto l’acqua contenuta prima e dopo il lavaggio, non essendo controllata, influenza diversamente le caratteristiche del prodotto finale. Infine, per garantire l’assottigliamento dello strato intermedio collagenico (tale da rispettare le caratteristiche strutturali del legamento parodontale in vivo) saranno testate diverse condizioni di liofilizzazione.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
La presente tesi magistrale si inserisce nell’ambito del progetto Language Toolkit e nasce in particolare dalla collaborazione tra il presente autore e l’azienda Tecnopress S.a.s. Nell’ottica dell’internazionalizzazione della propria attività l’azienda ha richiesto che il proprio sito web venisse sottoposto ad un processo di localizzazione dall’italiano verso l’inglese. Sulla base di queste premesse si è deciso di dividere il lavoro in tre parti: una fase teorica, una fase preparatoria e una fase pratica. La prima fase si è occupata di gettare le basi teoriche necessarie per affrontare consapevolmente l’incarico assegnato. Alla luce delle conclusioni della fase teorica è stata constatata l’esigenza di modificare la natura dell’intervento che si era preventivato di effettuare sul sito web. Fulcro della localizzazione è infatti il locale, ovvero la combinazione di regione socioculturale e lingua presa a riferimento per un processo di localizzazione web. Nelle richieste avanzate dall’azienda figuravano esclusivamente indicazioni relative alla lingua (l’inglese), non già alla regione socioculturale su cui modellare l’intervento di localizzazione del sito. Si è rivelato pertanto necessario procedere autonomamente alla definizione di un locale per il presente progetto, che è stato fatto coincidere con la macrozona europea e cui è stato associato un modello ibrido di English Lingua Franca e Simplified Technical English. Il focus dell’intervento non è stato dunque una regione geografica circoscritta ma una realtà socioculturale molto più ampia e variegata: l’adozione di un locale così ampio e il rispetto dell’indicazione sulla lingua hanno portato il presente autore a optare per un intervento di standardizzazione web. Chiude il presente lavoro una fase operativa, durante la quale sono state create le risorse necessarie al progetto (si segnala in particolare un corpus su misura) e sono state effettuate la standardizzazione e una serie di considerazioni traduttive.
Resumo:
I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.
Resumo:
La ricerca riguarda lo studio delle modifiche indotte dalla diffusione di acqua e umidità nelle pavimentazioni stradali con riferimento ai materiali bituminosi. Lo scopo è stato quello di analizzare le implicazioni che si sviluppano a livello chimico e reologico in vari bitumi. In questo progetto oltre alla fase sperimentale, è stato utilizzato un software per la simulazione agli elementi finiti. Per quanto concerne la fase di laboratorio, è stato sviluppato un nuovo protocollo di condizionamento. Tre diversi bitumi sono stati soggetti alla diffusione di acqua in forma liquida o vapore, a determinate condizioni ambientali e per svariati intervalli temporali. Grazie a l’utilizzo di due camere climatiche il condizionamento è stato realizzato in modo uniforme a precisi valori temperatura e umidità mantenuti stabili. I materiali analizzati: un bitume soft, uno hard, ed infine uno modificato con l’aggiunta di polimeri. Il dispositivo FTIR-ATR è stato utilizzato per la caratterizzazione chimica, mentre il comportamento reologico è stato analizzato tramite test eseguiti con il DSR. Le avanzate tecnologie presenti nel laboratorio della TU Delft hanno consentito di ottenere notevoli risultati. L’analisi è stata condotta con l’obiettivo di evidenziare i diversi cambiamenti indotti dalla diffusione di acqua liquida o vapore e per analizzare l’influenza della temperatura, del tipo del bitume e dell’incremento del tempo di condizionamento. Una analisi analoga è stata condotta parallelamente, con lo scopo di investigare la correlazione tra il processo di invecchiamento e la diffusione di umidità. Infine, la simulazione agli elementi finiti è stata sviluppata tramite il software CAPA-3D per analizzare il comportamento del bitume in periodi più estesi di diffusione di umidità. Inoltre, il comportamento dei bitumi è stato studiato anche in presenza di particelle di riempitivo. Particelle granitiche e calcaree sono state aggiunte ai bitumi in differenti percentuali.
Resumo:
In questo lavoro vogliamo studiare l'evoluzione dell'elettromagnetismo classico ed i fondamenti teorici della teoria classica del campo elettromagnetico. Riprenderemo i risultati sperimentali principali costruendo una teoria coerente dell'interazione elettromagnetica sfruttando il formalismo Lagrangiano già sviluppato per i sistemi meccanici. Lo studio delle proprietà del campo elettromagnetico è di fondamentale importanza per la fisica teorica: la sua relativa semplicità lo rende un buon candidato per lo sviluppo del formalismo necessario alla descrizione dei sistemi ad infiniti gradi di libertà. Questo servirà inoltre come punto di partenza per lo sviluppo di teorie di campo quantistiche più avanzate.
Resumo:
Nel Comune di Cesena è presente un sistema di gestione dei risultati elettorali che si avvale di una base di dati per memorizzare le informazioni sui seggi, sui partiti, sui candidati, e sui risultati da loro ottenuti, ma il software in uso manca di funzionalità avanzate che permettano di eseguire correttamente raffronti fra diverse elezioni, di tenere traccia di cambiamenti nelle parti più statiche dei dati, di identificare univocamente un soggetto anche se è presente più volte con nomi diversi. In questo contesto si inserisce la progettazione del nuovo Sistema di Gestione dei Risultati Elettorali; in primo luogo è stata necessaria una fase di analisi del sistema attuale per capirne le funzionalità e caratteristiche a livello di database, quali fossero le sue mancanze e quali dati venivano memorizzati da usare come base concettuale di partenza per il nuovo sistema. Si è poi passati alla fase di progettazione vera e propria del nuovo sistema perciò è stato prima necessario strutturare la nuova base di dati; con l’aiuto di diagrammi ER si è stabilito quali fossero le entità necessarie al funzionamento del database, siamo passati poi attraverso una normalizzazione dei diagrammi fino ad ottenere uno schema fisico che indicasse tutte le tabelle e abbiamo scelto di utilizzare la suite DBMS Oracle per la creazione del database. Si è poi scelto di utilizzare il linguaggio di scripting PHP per realizzare l’interfaccia per consentire l’accesso al sistema da parte di molteplici client, prestando particolare attenzione al procedimento di inserimento dei dati preliminari di un’elezione, cioè tutti quei dati che vengono inseriti prima del giorno della votazione che includono i seggi che verranno utilizzati, i partiti e i candidati che si contenderanno il voto degli elettori. Anche in questo caso, al termine dell’implementazione, si è eseguita un’ampia fase di test per assicurarsi che l’utente inserisca in maniera corretta solo ed esclusivamente i dati necessari.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.
Resumo:
Negli ultimi anni, si sono diffusi nuove strategie per il trattamento delle malattie cardiovascolari, che possano supportare una terapia medica, o in alcuni casi, sostituirla. Infatti, l’abbandono delle terapie è il più importante problema di salute pubblica del mondo occidentale, soprattutto per le malattie croniche. Ciò è dovuto alla complessità delle terapie farmacologiche e ai numerosi e in alcuni casi gravi effetti collaterali dei farmaci somministrati. Di conseguenza, una riduzione di questi effetti migliorerebbe le condizioni di vita del paziente e quindi diminuirebbe il rischio di abbandono della terapia. Per ottenere ciò, è possibile affiancare al trattamento farmacologico una terapia nutraceutica, consistente nella somministrazione di complessi molecolari o microorganismi, provenienti da piante, latte o cibi funzionali. Lo scopo generale di questo studio è indagare le attività ipolipidemizzanti di un composto nutraceutico e di un ceppo batterio specifico nel modello animale che presenta elevati alti livelli plasmatici di colesterolo. Inoltre, sono stati analizzati gli effetti del trattamento nutraceutico sui meccanismi fisiologici che contrastano la creazione della placca aterosclerotica come l’efflusso di colesterolo dalle “foam cells” presenti nell’ateroma, o la riduzione dell’assorbimento intestinale di colesterolo. La presente tesi è divisa in due parti. Nella prima parte, abbiamo analizzato la capacità dei Bifidobacteria di ridurre i livelli di colesterolo nel medium di crescita. Dall’analisi, si è osservato che vari ceppi del genere Bifidobacteria presentano un’ampia capacità di assimilazione del colesterolo all’interno della cellula batterica, in particolare il Bifidobacterium bifidum PRL2010. Le analisi di trascrittomica del Bb PRL2010 incubato in presenza di colesterolo, hanno rivelato un significativo aumento dei livelli di trascrizione di geni codificanti trasportatori e riduttasi, responsabili del meccanismo di accumulo all’interno della cellula batterica e della conversione del colesterolo in coprostanolo. L’attività ipolipidemizzante del Bb PRL2010 è stata poi valutata nel modello murino, mostrando la modificazione del microbiota dei topi trattati dopo somministrazione del batterio in questione. Nella seconda parte del progetto di ricerca, abbiamo indagato sugli effetti di un composto coperto da brevetto, chiamato “Ola”, sull’efflusso di colesterolo di criceti trattati con questo composto nutraceutico. L’efflusso di colesterolo è il primo step del meccanismo fisiologico noto come Trasporto Inverso del Colesterolo, che consente l’eliminazione del colesterolo dalle placche aterosclerotiche, attraverso l’interazione fra le HDL, presenti nella circolazione sanguigna, e specifici trasportatori delle foam cells, come ABCA1/G1 e SR-BI. In seguito, le lipoproteine rilasciano il colesterolo alle cellule epatiche, dove è metabolizzato ed escreto attraverso le feci. Per valutare l’effetto dell’Ola sul profilo lipidico dei criceti, sono state condotte analisi in vitro. I risultati mostrano un aumento dell’efflusso di colesterolo in cellule che esprimono il trasportatore ABCA1, comparato con il gruppo controllo. Questi due studi mostrano come l’approccio nutraceutico può essere un importante modo per contrastare l’aterosclerosi. Come mostrato in letteratura, gli effetti dei composti nutraceutici sull’aterosclerosi e su altre malattie croniche, hanno portato a un ampio uso come supporto alle terapie farmacologiche, ed in alcuni casi hanno rimpiazzato la terapia farmacologica stessa.
Resumo:
Questo elaborato finale riguarda la figura del teorico e traduttore slovacco Blahoslav Hečko. I primi capitoli contengono una breve descrizione della sua vita e delle sue opere sulla teoria della traduzione ("Nehádžte perly sviniam" e "Dobrodružstvo prekladu"). Il resto della tesi si concentra sulla traduzione verso lo slovacco del libro per l'infanzia di Gianni Rodari "Le avventure di Cipollino". La parte più corposa è rappresentata proprio dal commento analitico alla traduzione. Sono stati selezionati cinque capitoli del libro di Rodari in base alla presenza di sfide traduttive particolarmente interessanti e si è prestata particolare attenzione alla resa dei nomi propri, dei modi di dire e dei realia italiani. Nel confrontare il testo originale e la traduzione si è cercato di spiegare le scelte del traduttore attraverso annotazioni grammaticali e approfondimenti di carattere culturale, in alcuni casi sono state avanzate proposte alternative.
Resumo:
Obiettivo della tesi è la valutazione semplificata della vulnerabilità sismica di Palazzo del Parlamento detto "Farnese", sede del municipio di Campli in provincia di Teramo. Il palazza venne costruito a partire dal XIII sec., presenta una struttura in muratura mista e risulta vincolato ai sensi della normativa di tutela deo Beni Culturali. Per valutare la vulnerabilità è stata condotta un'analisi LV1,mediante l'ausilio di fogli Excel, che ha permesso di ottenere gli indici di sicurezza. A seguito dell'analisi relativa allo stato di fatto sono state avanzate delle ipotesi di intervento e valutati gli indici relativi agli stati di progetto.
Resumo:
La richiesta di allergeni puri è in continuo aumento per scopi diagnostici, come standard per metodi di rilevamento e di quantificazione, per l'immunoterapia e per lo studio a livello molecolare dei meccanismi delle reazioni allergiche, al fine di facilitare lo sviluppo di possibili cure. In questa tesi di dottorato sono descritte diverse strategie per l’ottenimento di forme pure di non-specific Lipid Transfer Proteins (nsLTPs), le quali sono state riconosciute essere rilevanti allergeni alimentari in molti frutti e verdure comunemente consumati e sono state definite come modello di veri allergeni alimentari. Una LTP potenzialmente allergenica, non nota in precedenza, è stata isolata dalle mandorle, mentre una LTP dall’allergenicità nota contenuta nelle noci è stata prodotta mediante tecniche di DNA ricombinante. Oltre a questi approcci classici, metodi per la sintesi chimica totale di proteine sono stati applicati per la prima volta alla produzione di un allergene, utilizzando Pru p 3, la LTP prototipica e principale allergene della pesca nell'area mediterranea, come modello. La sintesi chimica totale di proteinepermette di controllarne completamente la sequenza e di studiare la loro funzione a livello atomico. La sua applicazione alla produzione di allergeni costituisce perciò un importante passo avanti nel campo della ricerca sulle allergie alimentari. La proteina Pru p 3 è stata prodotta nella sua intera lunghezza e sono necessari solo due passaggi finali di deprotezione per ottenere il target nella sua forma nativa. Le condizioni sperimentali per tali deprotezioni sono state messe a punto durante la produzione dei peptidi sPru p 3 (1-37) e sPru p 3 (38-91), componenti insieme l'intera proteina. Tecniche avanzate di spettrometria di massa sono state usate per caratterizzare tutti i composti ottenuti, mentre la loro allergenicità è stata studiata attraverso test immunologici o approcci in silico.