991 resultados para Letteratura
Resumo:
La Teoria di Densità Funzionale (DFT) e la sua versione dipendente dal tempo (TDDFT) sono strumenti largamente usati per simulare e calcolare le proprietà statiche e dinamiche di sistemi con elettroni interagenti. La precisione del metodo si basa su una serie di approssimazioni degli effetti di exchange correlation fra gli elettroni, descritti da un funzionale della sola densità di carica. Nella presente tesi viene testata l'affidabilità del funzionale Mixed Localization Potential (MLP), una media pesata fra Single Orbital Approximation (SOA) e un potenziale di riferimento, ad esempio Local Density Approximation (LDA). I risultati mostrano capacità simulative superiori a LDA per i sistemi statici (curando anche un limite di LDA noto in letteratura come fractional dissociation) e dei progressi per sistemi dinamici quando si sviluppano correnti di carica. Il livello di localizzazione del sistema, inteso come la capacità di un elettrone di tenere lontani da sé altri elettroni, è descritto dalla funzione Electron Localization Function (ELF). Viene studiato il suo ruolo come guida nella costruzione e ottimizzazione del funzionale MLP.
Resumo:
La messa a punto di processi in grado di utilizzare le biomasse lignocellulosiche per la produzione di molecole piattaforma, utilizzabili per la sintesi di intermedi per la chimica fine, l’industria polimerica ed i combustibili, è attualmente un argomento di ricerca di grande interesse. Tra le molecole più studiate vi è la furfurale (FU), che si può ottenere mediante disidratazione dei monosaccaridi pentosi contenuti nei materiali lignocellulosici. Il prodotto di riduzione della furfurale, l’alcol furfurilico (FAL), è commercialmente interessante perché trova applicazione nell’industria polimerica e viene utilizzato come intermedio nella produzione di lisina, vitamina C, lubrificanti e agenti dispersanti. In letteratura sono riportati numerosi processi che permettono di ottenere questo prodotto, utilizzando la riduzione catalitica con H2 in pressione, che però presentano problemi di selettività, costo, sostenibilità e tossicità del catalizzatore utilizzato. La possibilità di effettuare la riduzione selettiva della furfurale senza fare ricorso all’idrogeno molecolare, utilizzando un processo di H-transfer e catalizzatori eterogenei a base di ossidi misti, risulta quindi di estremo interesse perché permette di eliminare i suddetti problemi. Lo scopo di questa tesi è stato quello di ottimizzare il processo, confrontando catalizzatori basici, quali MgO, CaO e SrO ottenuti tramite calcinazione a diverse temperature dei rispettivi precursori. In particolare, è stata valutata l’influenza che la temperatura di calcinazione, il tempo e la temperatura di reazione hanno sulla reattività e la stabilità dei sistemi catalitici sintetizzati. La caratterizzazione dei catalizzatori tramite diffrazione ai raggi X (XRD), analisi termiche (TGA, DTA) e misure di area superficiale con tecnica BET ha permesso di correlare le proprietà chimico-fisiche dei materiali con la loro attività catalitica.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Lo studio del polimorfismo gioca un ruolo fondamentale in diversi ambiti di ricerca, con applicazioni importanti nel campo dei semi conduttori organici e dei farmaci, dovuto al fatto che i diversi polimorfi di una sostanza presentano proprietà chimico-fisiche distinte. Questo lavoro di tesi si è focalizzato sullo studio del polimorfismo del paracetamolo, principio attivo (API) di diversi farmaci molto utilizzati, attraverso l’utilizzo della microscopia Raman. La microscopia Raman è una tecnica efficace per l’indagine del polimorfismo di materiali organici ed inorganici, in quanto permette di monitorare la presenza di diverse fasi solide e le loro trasformazioni su scala micrometrica. Le differenze di struttura cristallina che caratterizzano i polimorfi vengono analizzate attraverso gli spettri Raman nella regione dei modi reticolari (10-150 cm^{-1}), le cui frequenze sondano le interazioni inter-molecolari, molto sensibili anche a lievi differenze di impaccamento molecolare. Con questa tecnica abbiamo caratterizzato le forme I, II, III (quella elusiva) e diverse miscele di fase di paracetamolo su campioni ottenuti con numerose tecniche di crescita dei cristalli. Per questa tesi è stato svolto anche uno studio computazionale, attraverso metodi Density Functional Theory (DFT) per la molecola isolata e metodi di minimizzazione dell’energia e di dinamica reticolare per i sistemi cristallini. Abbiamo inoltre verificato se il modello di potenziale di letteratura scelto (Dreiding [Mayo1990]) fosse adatto per descrivere la molecola di paracetamolo, le strutture dei suoi polimorfi e i relativi spettri vibrazionali.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
Nella tesi è analizzata nel dettaglio una proposta didattica sulla Fisica Quantistica elaborata dal gruppo di ricerca in Didattica della Fisica dell’Università di Bologna, in collaborazione con il gruppo di ricerca in Fisica Teorica e con ricercatori del CNR di Bologna. La proposta è stata sperimentata in diverse classi V di Liceo scientifico e dalle sperimentazioni sono emersi casi significativi di studenti che non sono riusciti ad accettare la teoria quantistica come descrizione convincente ad affidabile della realtà fisica (casi di non accettazione), nonostante sembrassero aver capito la maggior parte degli argomenti e essersi ‘appropriati’ del percorso per come gli era stato proposto. Da questa evidenza sono state formulate due domande di ricerca: (1) qual è la natura di questa non accettazione? Rispecchia una presa di posizione epistemologica o è espressione di una mancanza di comprensione profonda? (2) Nel secondo caso, è possibile individuare precisi meccanismi cognitivi che possono ostacolare o facilitare l’accettazione della fisica quantistica? L’analisi di interviste individuali degli studenti ha permesso di mettere in luce tre principali esigenze cognitive (cognitive needs) che sembrano essere coinvolte nell’accettazione e nell’apprendimento della fisica quantistica: le esigenze di visualizzabilità, comparabilità e di ‘realtà’. I ‘cognitive needs’ sono stati quindi utilizzati come strumenti di analisi delle diverse proposte didattiche in letteratura e del percorso di Bologna, al fine di metterne in luce le criticità. Sono state infine avanzate alcune proposte per un suo miglioramento.
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Resumo:
La disciplina del Risk Management assume recentemente un significato ed un peso crescenti nel panorama delle organizzazioni pubbliche e private. Nel campo delle costruzioni pubbliche, in particolare, l’attuazione di processi strutturati di Gestione del Rischio potrebbe portare ad un efficientamento significativo del processo di costruzione e gestione. Obiettivo di questa tesi è verificare in che modo i risultati di un’applicazione strutturata di un processo di Gestione del Rischio possono essere impiegati dal gruppo di management per perseguire scelte più consapevoli, precise e circostanziate rispetto ai metodi tradizionali di gestione del processo. L’analisi parte da uno studio comparativo dei metodi e delle norme tecniche di Risk Management proposte in ambito internazionale. I risultati ottenuti vengono poi applicati al caso studio relativo al progetto di insediamento del Tecnopolo di Bologna presso l’area nota come Ex-Manifattura Tabacchi. L’applicazione delle tecniche al caso di studio è strutturata come una esecuzione completa del processo di Valutazione del Rischio. La fase di Identificazione viene svolta tramite un’analisi della letteratura, la sottoposizione al giudizio degli esperti, e si conclude con una categorizzazione dei rischi mediante Risk Breakdown Structure. La fase di Quantificazione del Rischio è attuata tramite una prima fase di analisi qualitativa con la somministrazione di un questionario on-line ad una platea di soggetti competenti; seguita da un’analisi quantitativa svolta con il software “RiskyProject®” per realizzare una analisi di Montecarlo ed analisi di sensitività. Al termine vengono esaminate alcune possibili misure di trattamento specifiche per un rischio definito prioritario. I risultati proposti mostrano come sia possibile ottenere in fase preliminare una descrizione consapevole delle incertezze del progetto, e che tale consapevolezza può essere utilizzata con lo scopo di migliorare la qualità e l’efficacia dell’intero processo.
Resumo:
I sistemi BCI EEG-based sono un mezzo di comunicazione diretto tra il cervello e un dispositivo esterno il quale riceve comandi direttamente da segnali derivanti dall'attività elettrica cerebrale. Le features più utilizzate per controllare questi dispositivi sono i ritmi sensorimotori, ossia i ritmi mu e beta (8-30 Hz). Questi ritmi hanno la particolare proprietà di essere modulati durante l'immaginazione di un movimento generando così delle desincronizzazioni e delle sincronizzazioni evento correlate, ERD e ERS rispettavamente. Tuttavia i destinatari di tali sistemi BCI sono pazienti con delle compromissioni corticali e non sono sempre in grado di generare dei pattern ERD/ERS stabili. Per questo motivo, negli ultimi anni, è stato proposto l'uso di tecniche di stimolazione cerebrale non invasiva, come la tDCS, da abbinare al training BCI. In questo lavoro ci si è focalizzati sugli effetti della tDCS sugli ERD ed ERS neuronali indotti da immaginazione motoria attraverso un'analisi dei contributi presenti in letteratura. In particolare, sono stati analizzati due aspetti, ossia: i) lo studio delle modificazioni di ERD ed ERS durante (online) o in seguito (offline) a tDCS e ii) eventuali cambiamenti in termini di performance/controllo del sistema BCI da parte del soggetto sottoposto alla seduta di training e tDCS. Le ricerche effettuate tramite studi offline o online o con entrambe le modalità, hanno portato a risultati contrastanti e nuovi studi sarebbero necessari per chiarire meglio i meccanismi cerebrali che sottendono alla modulazione di ERD ed ERS indotta dalla tDCS. Si è infine provato ad ipotizzare un protocollo sperimentale per chiarire alcuni di questi aspetti.
Resumo:
Recentemente sono stati valutati come fisicamente consistenti diversi modelli non-hermitiani sia in meccanica quantistica che in teoria dei campi. La classe dei modelli pseudo-hermitiani, infatti, si adatta ad essere usata per la descrizione di sistemi fisici dal momento che, attraverso un opportuno operatore metrico, risulta possibile ristabilire una struttura hermitiana ed unitaria. I sistemi PT-simmetrici, poi, sono una categoria particolarmente studiata in letteratura. Gli esempi riportati sembrano suggerire che anche le cosiddette teorie conformi non-unitarie appartengano alla categoria dei modelli PT-simmetrici, e possano pertanto adattarsi alla descrizione di fenomeni fisici. In particolare, si tenta qui la costruzione di determinate lagrangiane Ginzburg-Landau per alcuni modelli minimali non-unitari, sulla base delle identificazioni esistenti per quanto riguarda i modelli minimali unitari. Infine, si suggerisce di estendere il dominio del noto teorema c alla classe delle teorie di campo PT-simmetriche, e si propongono alcune linee per una possibile dimostrazione dell'ipotizzato teorema c_{eff}.
Resumo:
El concurso de transformación mágica, esquema narrativo difundido en la tradición popular, se presenta en dos variantes principales: los hechiceros que compiten pueden metamorfosearse en varios seres o crear esos seres por medios mágicos. En cualquier caso el concursante ganador da a luz criaturas más fuertes que superan las de su oponente. La segunda variante fue preferida en el antiguo Cercano Oriente (Sumeria, Egipto, Israel). La primera se puede encontrar en algunos mitos griegos sobre cambiadores de forma (por ejemplo, Zeus y Némesis). El mismo esquema narrativo puede haber influido en un episodio de la Novela de Alejandro (1.36-38), en el que Darío envía regalos simbólicos a Alejandro y los dos monarcas enemigos ofrecen contrastantes explicaciones de ellos. Esta historia griega racionaliza el concurso de cuento de hadas, transfiriendo las fantásticas hazañas de creaciones milagrosas a un plano secundario pero realista de metáfora lingüística.
Resumo:
Tras mi reciente edición de los pseudo-aristotélicos Pepli Epitaphia, el presente trabajo se centra en los apochrypha a dichos epitafios que compuso Juan Tzetzes en el siglo xii, un conjunto de ocho dísticos elegíacos para los héroes que consideró meritorios de tal tarea, y para quienes no pudo encontrar un epitafio conservado en las fuentes manuscritas a las que tuvo acceso. Para lograr dicho propósito, también se investiga el grado de conocimiento y la transmisión de ese corpus epigramático en la literatura bizantina, además de considerar las lecciones y el sentido mismo de dos códices guardados en la Biblioteca Nacional de España (M y Md). En ellos, Constantino Láscaris copió, directamente a partir de Tzetzes, dos breves antologías de dichos componentes.
Resumo:
First one of a two-part analysis on the influence of the Classical Tradition on a favourite theme along the Dutch painters of the Golden Age, The doctor’s visit or The lovesick maiden, especially in the Leiden artist’s production, Jan Steen (1626-1679).
Resumo:
El trabajo se centra en el análisis de los pecados relacionados con el dinero en el Inferno de Dante y en la primera traducción castellana de la primera cantiga de la Commedia, obra del arcediano de Burgos Pedro Fernández de Villegas. La traducción, compuesta en coplas de arte mayor y acompañada de un enciclopédico comentario, se publicó en 1515. Particular atención se dedica a la reflexión sobre el problema del mal uso del dinero que Villegas desarrolla en la glosa de los cantos en que con más vigor se levanta la voz de Dante para denunciar la gravedad del pecado de la sed de riquezas. Se analiza la postura del traductor español ante el tema comparándola no sólo con la de Dante sino también con la de Cristoforo Landino, autor del Comento sopra la Comedia, obra exégetica que se publicó por primera vez en Florencia en 1481 y que representó el punto de referencia privilegiado de Villegas.
Resumo:
We aspire to shape the Constantine’s personality in particular by analyzing his loving relationship, first with Minervina and then with Fausta, and not forgetting the bond with his mother Helena, hence the reference to uxor, mater and concubina in our title. We will analyze if these women exercised any influence on the composition of his production rules and, if so, to what extent they were able to determine the historical development of the following decades. From this point of view we must consider in general the emperor had to combine their political claims and government with these relationships, showing great skill in handling times and ways, always putting the first to the second.