973 resultados para Studio Ghibli
Resumo:
La ricerca, presentata in questa tesi di laurea, si pone quale obiettivo, quello di studiare le possibilità di impiego di materiali provenienti da attività da C&D, in sostituzione degli inerti vergini di cava, nella confezione dei misti cementati per strati di base e fondazioni stradali. Lo studio è stato condotto per conto della CEA (Cooperativa Edile Appennino S.c.a.r.l.) la quale ha fornito il materiale riciclato in due diverse curve granulometriche 0/20 e 0/30. Tutte le prove sono state eseguite presso il Laboratorio di Strade della Facoltà di Ingegneria dell’Università degli Studi di Bologna.
Resumo:
In questo lavoro di tesi sono stati effettuati studi conformazionali di 2-arilpiridine orto-sostituite su entrambi gli anelli aromatici. Essendo questi sistemi dotati di sostituenti relativamente ingombranti, le rotazioni attorno all’asse arile-arile risultano essere limitate e la molecola può presentarsi sotto forma di due enantiomeri conformazionali. È stato effettuato un paragone tra le energie di attivazione di due serie di 2-arilpiridine variamente sostituite con una serie di molecole aventi sostituenti analoghi ma caratterizzata dall’assenza di atomi di azoto piridinici. Nel caso di quest’ultima serie, i fattori che regolano le barriere rotazionali sono da imputare a motivazioni di tipo puramente sterico. La nucleofugacità è un parametro importante che interviene nella determinazione delle energie di attivazione di questo tipo di processi: è stato osservato sperimentalmente che gruppi uscenti peggiori destabilizzino maggiormente lo stato di transizione di un processo di interconversione, mentre molecole aventi atomi più elettronegativi sul gruppo uscente presentino energie di attivazione inferiori. Le barriere rotazionali sono state misurate tramite NMR dinamico e razionalizzate grazie all’aiuto di calcoli eseguiti con metodo DFT, necessari per prevedere le geometrie degli stati fondamentali e di transizione delle molecole studiate.
Resumo:
La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.
Resumo:
Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.
Resumo:
Studio, descrizione, analisi e implementazione di tecnologie Android: Mappe, Google Cloud Messaging, Sensori
Resumo:
La presente tesi tratta la progettazione e la simulazione via software di geometrie di antenne da realizzare direttamente su Printed Circuit Board (PCB) per schede di trasmissione dati wireless Ultra Wide Band. L’obiettivo principale di questo studio è la realizzazione di un prototipo per impieghi biomedici umani (ad esempio trasmissione di dati provenienti da un ECG). Lo scopo del lavoro svolto è quello di trovare la miglior soluzione di integrazione per un’antenna il più possibile compatta da realizzare poi direttamente sul substrato dove verrà stampato il circuito del trasmettitore stesso. L’antenna verrà quindi realizzata esclusivamente attraverso microstrisce conduttrici (le medesime che formeranno i collegamenti tra i vari componenti del circuito) prendendo in considerazione le grandezze parassite di ogni conduttore, quali resistenza, induttanza, capacità ecc. In conclusione, il circuito di trasmissione wireless completo di antenna sopra descritto è attualmente in fase di realizzazione e nel prossimo futuro verrà testato in laboratorio.
Resumo:
Questa tesi si pone il problema di studiare lo stato dell’arte degli impianti di produzione farmaceutici e di formulare, in base ai risultati ottenuti, uno o più possibili ipotesi di recupero d’energia, con particolare attenzione ai fluidi termo-vettori: in altri termini, questa tesi si prefissa l’obiettivo di realizzare un sistema utile e concreto per recuperare parte dell’energia termica, che nell'attuale concezione dell’impianto e dei suoi macchinari andrebbe smaltita e persa nei fluidi in uscita dal processo, e convertirla in energia riutilizzabile. Come modello per lo studio del problema, si fa riferimento a un tipico layout di produzione del farmaco, progettato e dimensionato dalla ditta IMA S.p.A. , settore Active, il quale entra come “materiale grezzo” ed esce come prodotto finito. L’azienda concepisce e progetta tipicamente le sue macchine e, di conseguenza, i suoi impianti in base alla quantità di prodotto che mediamente ogni ciclo produttivo lavorerà: in parole povere, gli impianti della divisione Active di IMA S.p.A. sono dimensionati e suddivisi per “taglie”.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
Il danno epatico indotto dall'assunzione di farmaci viene comunemente indicato con il termine inglese DILI (Drug-Induced Liver Injury). Il paracetamolo rappresenta la causa più comune di DILI, seguito da antibiotici, FANS e farmaci antitubercolari. In particolare, i FANS sono una delle classi di farmaci maggiormente impiegate in terapia. Numerosi case report descrivono pazienti che hanno sviluppato danno epatico fatale durante il trattamento con FANS; molti di questi farmaci sono stati ritirati dal commercio in seguito a gravi reazioni avverse a carico del fegato. L'ultimo segnale di epatotossicità indotto da FANS è associato alla nimesulide; in alcuni paesi europei come la Finlandia, la Spagna e l'Irlanda, la nimesulide è stata sospesa dalla commercializzazione perché associata ad un'alta frequenza di epatotossicità. Sulla base dei dati disponibili fino a questo momento, l'Agenzia Europea dei Medicinali (EMA) ha recentemente concluso che i benefici del farmaco superano i rischi; un possibile aumento del rischio di epatotossicità associato a nimesulide rimane tuttavia una discussione aperta di cui ancora molto si dibatte. Tra le altre classi di farmaci che possono causare danno epatico acuto la cui incidenza tuttavia non è sempre ben definita sono gli antibiotici, quali amoxicillina e macrolidi, le statine e gli antidepressivi.Obiettivo dello studio è stato quello di determinare il rischio relativo di danno epatico indotto da farmaci con una prevalenza d'uso nella popolazione italiana maggiore o uguale al 6%. E’ stato disegnato uno studio caso controllo sviluppato intervistando pazienti ricoverati in reparti di diversi ospedali d’Italia. Il nostro studio ha messo in evidenza che il danno epatico da farmaci riguarda numerose classi farmacologiche e che la segnalazione di tali reazioni risulta essere statisticamente significativa per numerosi principi attivi. I dati preliminari hanno mostrato un valore di odds ratio significativo statisticamente per la nimesulide, i FANS, alcuni antibiotici come i macrolidi e il paracetamolo.
Resumo:
La maggior parte dei pazienti che vengono sottoposti a interventi chirurgici per tumori solidi hanno un’età superiore a 70 anni1. Circa il 30% di questi pazienti vengono considerati “fragili”. Questi infatti presentano numerose comorbidità ed hanno un più elevato rischio di sviluppare complicanze postoperatorie con perdita della riserva funzionale residua. Per questo non esistono sistemi semplici di screening che permettano ai medici responsabili del trattamento di identificare questi pazienti con aumentato rischio postoperatorio. Identificare i pazienti a rischio è infatti il primo passo nel processo attraverso il quale è possibile prevenire in necessarie complicanze postoperatorie come delirio, eventi cardiovascolari e perdita della funzionalità complessiva con conseguente perdita di autonomia. Scopo di questo studio è quello di confrontare l’accuratezza nella previsione di mortalità e morbidità a 30 giorni dei tre test preditivi “Groningen Frailty Index” (GFI); “Vulnerable Elders Survey” (VES-13); “timed up and go test” con alcune componenti del Preoperative Assessment of Cancer in the Elderly (PACE). Lo studio verrà effettuato sui pazienti con età maggiore di 70 anni che dovranno essere sottoposti a intervento chirurgico in anestesia generale per la presenza di una neoplasia solida.
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.
Resumo:
In questa tesi si effettua uno studio sulla capacità degli algoritmi di apprendimento per rinforzo di profilare un utente Web unicamente attraverso l'osservazione del suo comportamento durante la navigazione
Resumo:
Le attuali sezioni d’urto di reazioni indotte da neutroni non sono sufficientemente accurate per essere utilizzate in progetti di ricerca di frontiera. Per soddisfare la richiesta di nuovi dati nucleari è stata recentemente costruita al CERN di Ginevra la facility n_TOF (neutron Time Of Flight). Le caratteristiche che contraddistinguono questa facility sono l’elevato flusso istantaneo di neutroni, l’ampio spettro energetico e l’eccellente risoluzione energetica. In questa tesi viene analizzata la sezione d’urto di cattura neutronica su 238U, fondamentale per la realizzazione dei reattori nucleari di nuova generazione che prevedono la sostituzione del combustibile 235U con 238U, molto più abbondante in natura e che permette di ridurre drasticamente l’accumulo di scorie nucleari. Nonostante le numerose misure già effettuate su questo elemento, ancora non si è raggiunta la precisione necessaria per le tecnologie nucleari emergenti quali i reattori di quarta generazione e gli ADS (Accelerator Drive System). Inoltre la parametrizzazione della sezione d’urto in termini di matrice R, non è così accurata quanto richiesto. In questo lavoro si è dapprima studiata l’assegnazione dello spin delle risonanze riportata in letteratura, elemento fondamentale per la successiva analisi delle risonanze e la parametrizzazione della sezione d’urto della reazione 238U(n, ). Parallelamente a questa attività si è studiata la funzione di risposta dello spettrometro n_TOF, che descrive la risoluzione energetica dei neutroni incidenti e va quindi a modificare la forma delle risonanze. I risultati ottenuti sono quindi stati confrontati con quelli in letteratura per poter essere validati e per poter verificare eventuali migliorie.
Resumo:
Questa tesi si svolge nell’ambito della ricerca del bosone di Higgs supersimmetrico all’esperimento CMS del Cern, sfruttando le collisioni protone-protone dell’acceleratore LHC. Il lavoro da me svolto riguarda lo studio della parametrizzazione dell’insieme dei dati che costituiscono il fondo dell’eventuale presenza di un segnale del bosone di Higgs nel modello supersimmetrico minimale. Ho eseguito dei fit al fondo aspettato tramite il package Root, utilizzando diverse funzioni per parametrizzarne analiticamente l’andamento. Nel lavoro di tesi mostro come tali funzioni approssimano i dati e ne discuto le loro caratteristiche e differenze.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.