597 resultados para Studio Ghibli
Resumo:
Il presente lavoro si colloca in un ampio percorso che ha visto diversi studi interessati nella problematica del traffico urbano, e quindi delle congestioni stradali, il cui impatto nella qualità della vita nelle grandi città è diventato sempre più rilevante con il processo di urbanizzazione. Dalle prime ricerche compiute, risalenti alla prima metà del 900, e aventi come oggetto di studio la singola strada, il ricorso alla modellizzazione matematica di recente si è sviluppato in particolar modo per quel che concerne la rete urbana. Le problematiche che si incontrano affrontando il contesto delle reti urbane si possono riassumere sinteticamente innanzitutto nella mutevolezza del flusso del traffico nell'arco della giornata. In secondo luogo nell'esistenza di punti critici variabili nel corso del tempo. Incidentalmente può accadere che si verifichino eventi eccezionali dovuti tanto all'ambiente naturale, quanto sociale. Ogni modello nella sua natura riduzionista consente di prendere in esame alcune problematiche specifiche e la scelta di operare in modo selettivo risponde alla complessità del fenomeno. Con queste indicazioni di metodo si è pensato di concentrarsi sullo studio degli effetti delle fluttuazioni endogene dei flussi di traffico in una stradale di tipo Manhattan. Per modellizzare il traffico utilizzeremo un sistema dinamico, nel quale la velocità ottimale si basa sulla relazione del Diagramma Fondamentale postulato da Greenshields (1935).
Resumo:
Dal 2008, sono evidenti che i benefici del selenio nell'organismo dipendono dalla forma in cui è ingerito, stabilendo che quella organica è migliore dell'inorganica. L’introduzione di selenio raccomandato a livello internazionale è di 55-70 μg/giorno e la sua specie chimica efficace dal punto di vista biologico è la seleniometionina. Infatti, si può affermare che il selenio in forma inorganica possieda una bassa bioattività rispetto al selenio legato agli aminoacidi (Se-metionina e Se-cisteina) di maggiore bioattività. Nell’ambito dei prodotti lievitati da forno, uno dei fattori che desta maggior interesse è l’effetto esercitato dal processo tecnologico (che include fermentazione e cottura) sull’aumento della biodisponibilità dei composti antiossidanti e nutrizionali. In particolare, attraverso il processo fermentativo, è possibile aumentare sia l’azione degli enzimi digestivi sul substrato alimentare, che la stabilità del selenio inorganico e organico presente modificandone le caratteristiche chimiche e fisiche (es. organicazione). Nello specifico, i processi fermentativi che caratterizzano gli impasti acidi (basati sulle interazioni metaboliche tra batteri lattici e lieviti) sono stati riconosciuti efficaci per modificare la composizione delle micro e macromolecole responsabili del miglioramento non solo delle caratteristiche qualitative ma anche di quelle nutrizionali, come il selenio. Lo scopo della mia tesi era lo sviluppo di un prodotto funzionale a base di cereali arricchito con selenio bioattivo tramite un processo di natura biotecnologica di tipo fermentativo. L’aggiunta di selenio alla farina attraverso un impasto acido arricchito favorisce la sua organicazione da parte dei batteri lattici presenti che trasformano parte del selenio additivato (SeIV) in forme organiche come SeMet e MeSeCys e in parte in altri frammenti organici non rilevati dall’analisi. D’altra parte la quantità di selenio inorganico rilevato nei digeriti di piadina ottenuta con impasto acido è risultata essere drasticamente ridotta. Dalla mia sperimentazione ho ottenuto molteplici indicazioni che riguardano la possibilità di produrre un alimento fermentato a base di cereali ed a elevato contenuto di selenio bioattivo. Dal punto di vista applicativo questo sperimentazione costituisce una base sia per la comprensione del ruolo dei processi fermentativi nella generazione di alimenti o ingredienti funzionali ma anche per l’individuazione di nuovi microrganismi probiotici con potenziali attività antiossidante ricchi di selenio bioattivo.
Resumo:
In questo elaborato vengono descritte le principali modalità di migrazione di processi con riferimento al Sistema Operativo GNU Linux. Sono presentate : caratteristiche di migrazione, varianti implementative, tecniche di checkpoint restart, DMTCP ed il progetto ULPM. Il corso di riferimento è Progetto di Sistemi Virtuali. Il relatore è il professor Renzo Davoli.
Resumo:
L'obiettivo della tesi è quello di studiare e realizzare un emulatore grafico per la progettazione di piccoli esperimenti di interfacciamento tra le emulazioni di un Raspberry Pi e un circuito elettronico. Lo scopo principale di questo emulatore è la didattica, in questo modo sarà possibile imparare le basi senza paura di danneggiare i componenti e sopratutto senza la necessità di avere il dispositivo fisico.
Resumo:
In questa tesi parlo del fenomeno del complemento oggetto preposizionale. Nel primo capitolo definirò e descriverò il fenomeno grazie alle posizioni assunte da molti grammatici e linguisti nei loro studi; riporterò le varie ipotesi sorte nel campo della linguistica circa l’origine del fenomeno e come si giunge all’uso della preposizione “a” per tale marcatura; evidenzierò, infine, i vari approcci da parte dei linguisti di fronte al fenomeno in spagnolo, italiano e nelle sue varianti in diatopia. Nel secondo capitolo, focalizzerò l’attenzione sull’aspetto normativo esposto nelle grammatiche riguardo un uso corretto della marca riportando le casistiche d’uso in spagnolo, in italiano, e descrivendo come e dove alcuni linguisti rintracciano il fenomeno tra le varianti dialettali e di italiano regionale. Nel terzo e ultimo capitolo, riporto i dati di una indagine condotta tra parlanti di due fasce d’età distinte (studenti e over 30) a Granada, per quanto concerne lo spagnolo, e Montemesola (piccolo paese della provincia di Taranto), per una verifica dell’uso della marca preposizionale in italiano e dialetto. Cercherò di evidenziare: quanto e in che modo i parlanti siano consapevoli delle loro scelte linguistiche analizzando, non solo statisticamente la frequenza d’uso della “a”, confrontandola tra le fasce d’età, ma considerando anche, di volta in volta, le motivazioni date dai parlanti nell’effettuare le loro scelte. La grammatica non è il perno centrale delle considerazioni del parlante nel momento in cui sceglie dei ricorsi linguistici piuttosto che altri, ma esistono altri criteri nella scelta altrettanto rilevanti, quali fattori soprasegmentali, contesto linguistico ed extralinguistico, e conoscenza enciclopedica del mondo, che intervengono anche a giustificazione dell’assenza della preposizione, rendendola significativa.
Resumo:
Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Si riassumono le principali proprietà e applicazioni di dispositivi basati su nanofili. Si descrivono le tecniche utilizzate in laboratorio per analizzare livelli profondi in nanofili di Silicio con particolare attenzione ai concetti teorici alla base di questi metodi.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Nelle celle solari HIT (Heterojunction Intrinsic Thin layer) attualmente in circolazione il materiale maggiormente utilizzato è sicuramente il silicio, per la sua buona caratteristica di assorbimento e disponibilità in natura. Tuttavia, la struttura amorfa del silicio impiegato come emettitore, limita fortemente la conducibilità e aumenta gli effetti di degradazione legati all'esposizione alla luce. In quest'ottica, nel presente lavoro di tesi, vengono analizzati sottili layers di Silicon Oxynitride ossigenato, depositati in forma nanocristallina presso l'Università di Costanza su substrati in vetro, tramite PECVD (Plasma-Enhanced Chemical Vapor Deposition). Il materiale, che non presenta i difetti intrinseci della forma amorfa, è dal punto di vista delle proprietà fisiche fondamentali ancora poco conosciuto e rappresenta una possibile alternativa agli analoghi campioni in forma amorfa. Le misure e le analisi presentate in questa tesi, svolte presso il Dipartimento di Fisica e Astronomia di Bologna, sono finalizzate ad indagare le principali proprietà ottiche, quali l'energy gap e l'indice di rifrazione dei layers. I risultati ottenuti, espressi in funzione dei parametri di deposizione, mostrano che un aumento della concentrazione di ossigeno in fase di deposito implica un aumento lineare dell'ampiezza dell'energy gap e un calo dell'indice di rifrazione. Anche altri parametri come la potenza di deposito e il tempo di annealing sembrano giocare un ruolo importante sul valore dell'energy gap. I risultati appaiono inoltre essere in buon accordo con quanto ottenuto da studi precedenti su layers simili ma con una maggiore fase amorfa. In conclusione, la possibilità di regolare il valore dell'energy gap e l'indice di rifrazione in base ai parametri di deposizione, unita alle buone prerogative tipiche dei materiali cristallini, conferisce al materiale buone prospettive per applicazioni fotovoltaiche come emettitori in celle ad eterogiunzione o rivestimenti con proprietà antiriflettenti
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
Lo studio svolto nella tesi approfondisce alcuni aspetti meccanici di una struttura sollevatrice per un cesto raccoglitore istallata su un tagliaerba a piatto frontale, con raccolta dell'erba tagliata nel cesto retrostante, macchina costruita dall'azienda Grillo Spa. Lo studio prevede una analisi cinematica della struttura, con formulazione di un modello più semplice adatto allo studio in questione. A seguire si è effettuato uno studio sulle forze in gioco nella condizione più critica della struttura e una verifica riguardante una specifica sezione di tubo rettangolare scelta dall'azienda per il punto più critico. In seguito si è fatto un approfondimento sulla teoria della lubrificazione e si è verificato l'utilizzo che ne fa l'azienda. Si è terminato lo studio con l'analisi dei cicli lavorativi di una parte dei componenti della struttura.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.