973 resultados para Studio Ghibli
Resumo:
Studio della piattaforma software per la creazione di progetti completi di automazione industriale: progetto SCADA e progetto PLC. La tesi è strutturata con una descrizione di tutti gli apparati facenti parte di un apparato industriale e con lo studio della piattaforma attraverso la creazione di un progetto completo di automazione.
Resumo:
si vuole studiare la struttura atomica di cluster di argento su ceria, si è utilizzata la spettroscopia di assorbimento di raggi x con luce di sincrotrone. Le misure sono state effettuate all'Esrf di Grenoble e si sono analizzati gli spettri EXAFS di diversi spessori equivalenti di argento (1.5Å , 0.7Å, 0.2Å, 0.1Å). Si tratta il processo di produzione della luce di sincrotrone e le sue proprietà caratteristiche. In particolare si descrive la strumentazione ottica utilizzata: specchi riflettenti per raggi X e monocromatore con geometria a doppio cristallo.
Resumo:
E' stato considerato un High-Dislocation Density Light Emitting Diode (HDD LED)ed è stato analizzato l'andamento di corrente a varie temperature. Dai risultati ottenuti è stato possibile ricavare il coefficiente di Poole-Frenkel, e da esso risalire alla densità di dislocazioni del dispositivo.
Resumo:
La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
Gli endocannabinoidi (EC) sono una classe di composti che mimano gli effetti del Δ9-tetraidrocannabinolo. Essi comprendono l’anandamide (AEA) ed il 2-arachidonoilglicerolo (2-AG), molecole che interagiscono preferenzialmente con due specifici recettori, il CB1 ed il CB2. Più recente è la scoperta di due molecole EC simili, il palmitoiletanolamide (PEA) e l’oleiletanolamide (OEA), che tuttavia agiscono legando recettori diversi tra cui il PPARα ed il TRVP1. Studi sperimentali dimostrano che il sistema degli EC è attivato in corso di cirrosi epatica ed è coinvolto nel processo fibrogenico e nella patogenesi delle alterazioni emodinamiche tipiche della malattia. Esso partecipa alla patogenesi di alcune delle maggiori complicanze della cirrosi quali ascite, encefalopatia, cardiomiopatia ed infezioni batteriche. Scopo del presente studio è stato quello di studiare il ruolo degli EC nella patogenesi delle infezioni batteriche in corso di cirrosi. A tale scopo sono stati eseguiti un protocollo clinico ed uno sperimentale. Nel protocollo sperimentale la cirrosi è stata indotta mediante somministrazione di CCl4 per via inalatoria a ratti maschi Wistar. In tale protocollo i livelli circolanti di tutti gli EC sono risultati significativamente aumentati a seguito della somministrazione di LPS. La somministrazione dell’antagonista del recettore CB1, Rimonabant, inoltre, è stata efficace nel ridurre del 50% la mortalità a 24 ore dei ratti trattati col farmaco rispetto ai ratti trattati col solo LPS. Parallelamente il Rimonabant ha determinato una riduzione dell’espressione genica di molecole pro-infiammatorie e sostanze vasoattive. Lo studio clinico, condotto su 156 pazienti, ha confermato l’attivazione del sistema degli EC in corso di cirrosi epatica. Inoltre è stata identificata una forte correlazione tra il PEA e l’OEA e l’emodinamica sistemica ed una associazione con alcune delle maggiori complicanze. L’analisi statistica ha inoltre individuato l’OEA quale predittore indipendente di insufficenza renale e di sopravvivenza globale.
Resumo:
Il presente lavoro si colloca in un ampio percorso che ha visto diversi studi interessati nella problematica del traffico urbano, e quindi delle congestioni stradali, il cui impatto nella qualità della vita nelle grandi città è diventato sempre più rilevante con il processo di urbanizzazione. Dalle prime ricerche compiute, risalenti alla prima metà del 900, e aventi come oggetto di studio la singola strada, il ricorso alla modellizzazione matematica di recente si è sviluppato in particolar modo per quel che concerne la rete urbana. Le problematiche che si incontrano affrontando il contesto delle reti urbane si possono riassumere sinteticamente innanzitutto nella mutevolezza del flusso del traffico nell'arco della giornata. In secondo luogo nell'esistenza di punti critici variabili nel corso del tempo. Incidentalmente può accadere che si verifichino eventi eccezionali dovuti tanto all'ambiente naturale, quanto sociale. Ogni modello nella sua natura riduzionista consente di prendere in esame alcune problematiche specifiche e la scelta di operare in modo selettivo risponde alla complessità del fenomeno. Con queste indicazioni di metodo si è pensato di concentrarsi sullo studio degli effetti delle fluttuazioni endogene dei flussi di traffico in una stradale di tipo Manhattan. Per modellizzare il traffico utilizzeremo un sistema dinamico, nel quale la velocità ottimale si basa sulla relazione del Diagramma Fondamentale postulato da Greenshields (1935).
Resumo:
Dal 2008, sono evidenti che i benefici del selenio nell'organismo dipendono dalla forma in cui è ingerito, stabilendo che quella organica è migliore dell'inorganica. L’introduzione di selenio raccomandato a livello internazionale è di 55-70 μg/giorno e la sua specie chimica efficace dal punto di vista biologico è la seleniometionina. Infatti, si può affermare che il selenio in forma inorganica possieda una bassa bioattività rispetto al selenio legato agli aminoacidi (Se-metionina e Se-cisteina) di maggiore bioattività. Nell’ambito dei prodotti lievitati da forno, uno dei fattori che desta maggior interesse è l’effetto esercitato dal processo tecnologico (che include fermentazione e cottura) sull’aumento della biodisponibilità dei composti antiossidanti e nutrizionali. In particolare, attraverso il processo fermentativo, è possibile aumentare sia l’azione degli enzimi digestivi sul substrato alimentare, che la stabilità del selenio inorganico e organico presente modificandone le caratteristiche chimiche e fisiche (es. organicazione). Nello specifico, i processi fermentativi che caratterizzano gli impasti acidi (basati sulle interazioni metaboliche tra batteri lattici e lieviti) sono stati riconosciuti efficaci per modificare la composizione delle micro e macromolecole responsabili del miglioramento non solo delle caratteristiche qualitative ma anche di quelle nutrizionali, come il selenio. Lo scopo della mia tesi era lo sviluppo di un prodotto funzionale a base di cereali arricchito con selenio bioattivo tramite un processo di natura biotecnologica di tipo fermentativo. L’aggiunta di selenio alla farina attraverso un impasto acido arricchito favorisce la sua organicazione da parte dei batteri lattici presenti che trasformano parte del selenio additivato (SeIV) in forme organiche come SeMet e MeSeCys e in parte in altri frammenti organici non rilevati dall’analisi. D’altra parte la quantità di selenio inorganico rilevato nei digeriti di piadina ottenuta con impasto acido è risultata essere drasticamente ridotta. Dalla mia sperimentazione ho ottenuto molteplici indicazioni che riguardano la possibilità di produrre un alimento fermentato a base di cereali ed a elevato contenuto di selenio bioattivo. Dal punto di vista applicativo questo sperimentazione costituisce una base sia per la comprensione del ruolo dei processi fermentativi nella generazione di alimenti o ingredienti funzionali ma anche per l’individuazione di nuovi microrganismi probiotici con potenziali attività antiossidante ricchi di selenio bioattivo.
Resumo:
In questo elaborato vengono descritte le principali modalità di migrazione di processi con riferimento al Sistema Operativo GNU Linux. Sono presentate : caratteristiche di migrazione, varianti implementative, tecniche di checkpoint restart, DMTCP ed il progetto ULPM. Il corso di riferimento è Progetto di Sistemi Virtuali. Il relatore è il professor Renzo Davoli.
Resumo:
Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.
Resumo:
Numerose evidenze sperimentali hanno dimostrato il contributo delle cellule staminali di derivazione midollare nei processi di rigenerazione epatica dopo danno tissutale. E’ cresciuto pertanto l’interesse sul loro potenziale impiego in pazienti con cirrosi. Questo studio si propone di valutare la fattibilità e la sicurezza della reinfusione intraepatica di cellule staminali midollari autologhe CD133+ in 12 pazienti con insufficienza epatica terminale definita da un punteggio di Model for End Stage of Liver Disease (MELD) compreso tra 17 e 25. L’efficacia in termini di funzionalità epatica rappresenta un obiettivo secondario. Previa mobilizzazione nel sangue periferico mediante somministrazione di granulocyte-colony stimulating factor (G-CSF) alla dose di 7,5 mcg/Kg/b.i.d. e raccolta per leucoaferesi, le cellule CD133+ altamente purificate vengono reinfuse in arteria epatica a partire da 5x104/Kg fino a 1x106/kg. Nei tre giorni successivi si somministra G-CSF per favorire l’espansione e l’attecchimento delle cellule. Durante la mobilizzazione, la reinfusione e nei 12 mesi successivi i pazienti sono sottoposti a periodici controlli clinici, laboratoristici e strumentali e ad attenta valutazione di effetti collaterali. Lo studio è tuttora in corso e ad oggi, 11 pazienti sono stati sottoposti a reinfusione e 4 hanno completato i 12 mesi di follow-up. Il G-CSF è stato ben tollerato e ha consentito di ottenere una buona espansione cellulare. Dopo la reinfusione sono stati documentati un ematoma inguinale e due episodi transitori di encefalopatia portosistemica. Durante il follow-up 4 pazienti sono stati trapiantati e 2 sono morti. Non è stata osservata alcuna modificazione significativa degli indici di funzione epatica. Questi risultati preliminari confermano la possibilità di mobilizzare e reinfondere un numero adeguato di cellule staminali di derivazione midollare in pazienti con malattia epatica in stadio terminale.
Resumo:
L'obiettivo della tesi è quello di studiare e realizzare un emulatore grafico per la progettazione di piccoli esperimenti di interfacciamento tra le emulazioni di un Raspberry Pi e un circuito elettronico. Lo scopo principale di questo emulatore è la didattica, in questo modo sarà possibile imparare le basi senza paura di danneggiare i componenti e sopratutto senza la necessità di avere il dispositivo fisico.
Resumo:
In questa tesi parlo del fenomeno del complemento oggetto preposizionale. Nel primo capitolo definirò e descriverò il fenomeno grazie alle posizioni assunte da molti grammatici e linguisti nei loro studi; riporterò le varie ipotesi sorte nel campo della linguistica circa l’origine del fenomeno e come si giunge all’uso della preposizione “a” per tale marcatura; evidenzierò, infine, i vari approcci da parte dei linguisti di fronte al fenomeno in spagnolo, italiano e nelle sue varianti in diatopia. Nel secondo capitolo, focalizzerò l’attenzione sull’aspetto normativo esposto nelle grammatiche riguardo un uso corretto della marca riportando le casistiche d’uso in spagnolo, in italiano, e descrivendo come e dove alcuni linguisti rintracciano il fenomeno tra le varianti dialettali e di italiano regionale. Nel terzo e ultimo capitolo, riporto i dati di una indagine condotta tra parlanti di due fasce d’età distinte (studenti e over 30) a Granada, per quanto concerne lo spagnolo, e Montemesola (piccolo paese della provincia di Taranto), per una verifica dell’uso della marca preposizionale in italiano e dialetto. Cercherò di evidenziare: quanto e in che modo i parlanti siano consapevoli delle loro scelte linguistiche analizzando, non solo statisticamente la frequenza d’uso della “a”, confrontandola tra le fasce d’età, ma considerando anche, di volta in volta, le motivazioni date dai parlanti nell’effettuare le loro scelte. La grammatica non è il perno centrale delle considerazioni del parlante nel momento in cui sceglie dei ricorsi linguistici piuttosto che altri, ma esistono altri criteri nella scelta altrettanto rilevanti, quali fattori soprasegmentali, contesto linguistico ed extralinguistico, e conoscenza enciclopedica del mondo, che intervengono anche a giustificazione dell’assenza della preposizione, rendendola significativa.
Resumo:
Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.