49 resultados para Cotone, Pietro


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi software nati dall'esigenza di supportare agevolmente ed efficacemente il lavoro cooperativo, in particolare quelli orientati al supporto di azioni di soccorso in scenari di emergenza, appaiono tutt'ora fortemente limitati e frammentati. In molti casi vengono affrontate solamente specifiche dimensioni del problema complessivo, anche se il livello al quale è giunto lo sviluppo tecnologico e i risultati osservati in ambito di ricerca permettono di delineare soluzioni complete e significative per l'impiego in ambiti reali. Tale tipologia di sistemi è stata scelta per il grande interesse che desta sia dal punto di vista accademico, essendo costituita da molteplici sotto--sistemi spesso eterogenei che debbono necessariamente interagire e supportare l'azione umana, sia dal punto di vista industriale, interpretando la necessità crescente di iniettare nel maggior numero possibile di livelli sociali la forte dipendenza (il supporto allo stesso tempo) dalle scienze tecnologiche ed informatiche, per rafforzare e talvolta estendere le possibilità dell'essere umano in quanto tale. Dopo una prima fase in cui verrà delineato un quadro concettuale piuttosto dettagliato circa i principali elementi e problematiche che caratterizzano la classe di sistemi considerati, sarà dato spazio alla validazione di tali principi e considerazioni emerse, confrontandosi con la progettazione e sviluppo in forma prototipale di un sotto--sistema relativo ad un caso di studio reale, significativo per l'ambito di applicazione, nato dalla collaborazione con l'Università degli Studi di Bologna di un'azienda della regione Emilia--Romagna. Il sistema software realizzato vuole essere innanzi tutto la risposta alle esigenze emerse nel caso di studio trattato, in modo tale da potersi sostituire agli attuali limitati supporti alla cooperazione, ma anche un esperimento che possa essere considerato un artefatto centrale da utilizzare come base di conoscenza condivisa, in cui vengano fattorizzati i concetti e meccanismi chiave, fondamentali per sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente, l'uso di polimeri a base di acido polilattico (PLA) ha subito un fortissimo incremento, soprattutto per la produzione di dispositivi atti alla fissazione di fratture e osteotomie. Lo scopo della prima parte del mio lavoro di tesi, è stato quello di redigere un documento che contenesse informazioni sulle caratteristiche dell'acido poli-L-lattico (PLLA) e del polimero P(L-DL)LA70:30 (70% di PLLA + 30% di PDLLA), entrambi molto diffusi nelle applicazioni biomediche. A tale scopo, è stata fatta un'analisi dello stato dell'arte sulle proprietà chimico-fisiche, tecnologiche (produzione e sterilizzazione) e sui principali meccanismi di degradazione. La seconda parte, invece, è stata dedicata alla stesura di una review sull'evoluzione della biocompatibilità del PLLA utilizzato in ambito ortopedico. A tale scopo, data la grande quantità di studi presenti in letteratura (in vitro, in vivo, trial clinici), non è stato necessario eseguire nessun test per validarne la biocompatibilità. Tuttavia, nonostante trovino già largo impiego nella chirurgia ortopedica, i polimeri in PLA continuano ad essere oggetto di studio, con l'obiettivo di comprenderne al meglio il comportamento e realizzare dispositivi sempre più sicuri ed efficaci per la salute del paziente. E' proprio in questo ambito di ricerca che si inserisce l'attività sperimentale svolta presso lo stabilimento Lima Corporate di Villanova di San Daniele del Friuli (UD). In particolare, l'ultima parte del lavoro di tesi, è stata dedicata alla valutazione degli effetti che il processo di sterilizzazione ad Ossido di Etilene (EtO), genera sulle proprietà chimico-fisiche e meccaniche della vite CALCANEO-STOP in PLLA, stampata ad iniezione e realizzata da Hit Medica (del gruppo Lima Corporate) nello stabilimento di San Marino (RSM). Per la caratterizzazione chimico-fisica del materiale sono state condotte prove di: densitometria, calorimetria a scansione differenziale (DSC), spettrometria FT-IR e viscosimetria. Per la caratterizzazione meccanica dei dispositivi, sono state condotte delle prove a torsione statica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il gruppo di tecnologie e sistemi di lavorazione del Dipartimento di Ingegneria Industriale, D.I.N, dell’Università di Bologna ha compiuto in collaborazione con il Dipartimento IUL della TU di Dortmund, negli ultimi anni, due campagne sperimentali effettuando processi di estrusione di leghe di alluminio. Nella prima, utilizzando leghe AA6060 e il metodo della visioplasticità, sono stati raccolti dati volti a ricavare le condizioni di attrito di tali processi, tramite confronto con valori ottenuti in simulazioni agli elementi finiti. Nella seconda, utilizzando invece una lega AA6082, è stata valutata la microstruttura al fine di permettere, tramite programmi agli elementi finiti, la determinazione di correlazioni fra variabili che prevedano la dimensione della microstruttura della lega stessa a seguito di lavorazioni per deformazione plastica. Basandosi quindi su queste prove sperimentali e utilizzando il software “QuantorForm versione 7.2.4”, è stato svolto il lavoro di tesi finalizzato a conseguire i seguenti obiettivi: • individuare il modello di attrito che si sviluppa nei processi di estrusione analizzati per la lega di alluminio AA6060; • determinare i parametri di settaggio ottimale del software, confrontando i risultati ottenuti nelle simulazioni con quelli sperimentali; • determinare le curve che descrivono la dimensione di un grano cristallino di AA6082 in funzione della deformazione; • implementare come subroutine in Qform, tramite l’utilizzo del linguaggio “Lua”, il modello di microstruttura ottenuto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La principale finalità di questo lavoro sperimentale riguarda la messa a punto di un metodo analitico rapido ed economico di tipo colorimetrico, che possa essere attuato anche in laboratori attrezzati per eseguire solo semplici determinazioni spettrofotometriche, con il quale quantificare il contenuto in composti fenolici in accordo con quanto riportato nell’health claim salutistico relativo ai polifenoli negli oli d’oliva (Reg. UE 432/2012). A questo scopo, il metodo sarà testato su dodici oli extra vergini di oliva, sia italiani che spagnoli, caratterizzati da concentrazioni diverse in composti fenolici, in parallelo ad un metodo cromatografico (HPLC-UV-MS) preceduto da idrolisi acida, già presente in letteratura. Tale reazione idrolitica consente, infatti, una conversione dei fenoli complessi tipici dell’oliva - i secoiridoidi - in fenoli semplici (idrossitirosolo e tirosolo), permettendo una determinazione semplificata del contenuto fenolico di un campione rispetto a quanto possibile mediante l’applicazione del solo metodo COI ("Determinazione dei biofenoli degli oli di oliva mediante HPLC", COI/T.20/Doc.n.29, 2009) per la verifica di quanto richiesto dall’health claim. Sulla base dei risultati ottenuti, sarà possibile valutare se i test colorimetrici più comunemente applicati per la determinazione dei composti fenolici negli oli d’oliva (Folin-Ciocalteu e metodo per la determinazione degli orto-difenoli con sodio molibdato) siano effettivamente applicabili per la determinazione del contenuto totale di idrossitirosolo e derivati in oli vergini di oliva, indicando se gli oli oggetto dello studio soddisfino o meno i requisiti UE per l’indicazione in etichetta del claim salutistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attività sperimentale riguardante lo studio dei materiali compositi, nell’ambito della progettazione a crashworthiness, svolto, tramite test dei provini realizzati nell’attività di tirocinio, presso i laboratori didattici della Scuola di ingegneria e architettura, sede di Forlì. Il lavoro di tesi, si è basato sulla valutazione dell’energia assorbita dai provini in materiale composito, tramite prove quasi-statiche; per questo tipo di prove sono stati utilizzati provini autostabilizzanti, rinforzati in fibra di carbonio e matrice in resina epossidica. Prima di procedere alla sperimentazione, sono stati studiati i risultati ottenuti da precedenti sperimentazioni eseguite da colleghi, per valutare quale fosse la configurazione migliore di provino, in termini di geometria, e trigger, che garantisse elevate energie di assorbimento. Dopo una panoramica dei materiali compositi, con riferimento alle caratteristiche e proprietà, alle diverse tipologie che si possono avere in ambito industriale, è spiegato il concetto di crashworthiness, le varie tipologie di test di impatto e le varie tipologie di rottura alla quale può essere soggetto un provino. Si è di seguito descritto come è stata valutata la scelta del tipo di geometria e del trigger, che sarebbero stati utilizzati per la progettazione del provino, e si è accennato al processo di laminazione svolta presso i laboratori della Scuola per la fabbricazione del provino. Al termine della descrizione dei tester usati per la sperimentazione sono, infine, illustrati i risultati delle prove svolte, con successivi commenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi di vulnerabilità sismica dell'ex Macello del comune di Bologna, situato nella Piazzetta P.P.Pasolini 5b, nei pressi di Porta Lame. Gli stabili sono oggi sede dei laboratori DMS (Dip. Musica e Spettacolo). Le analisi svolte sono di tipo statico e dinamico per gli elementi in muratura ed in acciaio costituenti le strutture in esame. Nell'elaborato è presentata brevemente la teoria alla base delle analisi effettuate ed i relativi risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi analizza un emergente paradigma di rete, Software Defined Network, evidenziandone i punti di forza e mettendone quindi in luce i conseguenti vantaggi, le potenzialità, le limitazioni, l’attuabilità e i benefici, nonché eventuali punti di debolezza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato tratta dell'ipotesi ergodica, problema centrale nell'ambito della giustificazione dei risultati della meccanica statistica, e dell'importanza che svolge in essa il tempo di osservazione. Dopo aver presentato varie formulazioni del problema ergodico, si esamina la questione dei tempi di ritorno e si mostra come il teorema di ricorrenza di Poincaré non sia in contraddizione con la possibilità del raggiungimento dell'equilibrio. Infine, l'analisi dell'apparente paradosso di Fermi-Pasta-Ulam e la discussione di alcune proposte di soluzione mostrano un'applicazione della trattazione astratta condotta precedentemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presenza di residui dei farmaci ad uso umano e veterinario nelle acque superficiali è in costante aumento a causa del loro elevato consumo. L’impatto ambientale dei prodotti farmaceutici è riconosciuto in tutto il mondo ma attualmente ancora non sono presenti degli Standard di qualità ambientale per queste sostanze in ambiente acquatico. L’agenzia europea per i farmaci (EMEA) ha introdotto delle linee guida per la valutazione del rischio ambientale per tutti i nuovi farmaci prima di provvedere alla registrazione, ma in nessun caso la loro autorizzazione in commercio è vietata. Una volta assunti, i farmaci sono escreti dagli organismi in forma nativa o come metaboliti, e attraverso gli scarichi urbani raggiungono i depuratori che li rimuovono solo in parte. Di conseguenza, i residui dei farmaci vengono ritrovati nei fiumi, nei laghi, fino alle acque marine costiere. Anche se presenti a basse concentrazioni (ng-μg/L) nelle acque superficiali, i farmaci possono provocare effetti avversi negli organismi acquatici. Queste specie rappresentano involontari bersagli. Tuttavia molti di essi possiedono molecole target simili a quelle dell’uomo, con i quali i farmaci interagiscono per indurre gli effetti terapeutici; in questo caso i farmaci ambientali possono causare effetti specifici ma indesiderati sulla fisiologia degli animali acquatici. Le interazioni possono essere anche non specifiche perché dovute agli effetti collaterali dei farmaci, ad esempio effetti ossidativi, con potenziali conseguenze negative su vertebrati ed invertebrati. In questo lavoro sono stati valutati i potenziali effetti indotti nelle larve di orata da quattro classi di farmaci ovvero: carbamazepina (antiepilettico), ibuprofene (antinfiammatorio non steroideo), caffeina (stimolante) e novobiocina (antibiotico). In particolare, in questo lavoro si è valutato inizialmente il tasso di sopravvivenza delle larve di orata esposte ai farmaci, per verificare se l’esposizione determinasse effetti di tossicità acuta; successivamente si è passati alla valutazione di due biomarker : il danno al DNA e la perossidazione lipidica per verificare la presenza di effetti tossici sub-letali. Le larve sono state esposte per 96 ore alle concentrazioni di 0.1, 1 (MEC), 10 e 50 µg/L (>MEC) di carbamazepina e novobiocina, a 0.1, 5 (MEC),10 e 50 µg/L (> MEC) di ibuprofene ed a 0.1, 5 (MEC),15 e 50 µg/L (> MEC) di caffeina, rappresentative delle concentrazioni riscontrate in ambiente acquatico e al di sopra di quest’ultimo. L’analisi dei dati sulla sopravvivenza ha dimostrato che la carbamazepina, l’ibuprofene, la novobiocina e la caffeina non hanno effetti significativi alle concentrazioni testate. La valutazione dei biomarker ha evidenziato un generale decremento significativo dei livelli di danno primario al DNA e per la perossidazione lipidica è stato generalmente osservato un decremento alle dosi dei farmaci più basse, seguito da un aumento a quelle più elevate. Nell’insieme i dati indicano che alle concentrazioni testate, i farmaci carbamazepina, caffeina, ibuprofene e novobiocina non hanno prodotto alterazioni attribuibili alla comparsa di effetti avversi nelle larve di S. aurata dopo 96 ore di esposizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si basa sulla descrizione dei p-gruppi di ordine finito, definiti p-gruppi, cioè quei gruppi che hanno come cardinalità una potenza di un numero primo. Vengono enunciati i teoremi di Sylow e le sue conseguenze. Infine si discute il teorema fondamentale sui gruppi abeliani finiti e la funzione di Eulero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della presente ricerca è sottolineare la tendenza alla ossessiva e spesso superflua ricerca del simbolismo nell’analisi di opere, specificatamente testi letterari e film, e proporre una possibile soluzione per porre fine o almeno diminuire gli effetti del fenomeno. A partire da una definizione esaustiva della parola simbolo, l’analisi verterà sull’evoluzione del concetto di simbolismo attraverso i media, e il cambiamento intrinseco causato da tale evoluzione. In seguito, analizzerò un semisconosciuto ma emblematico sondaggio, condotto nel 1973 da Bruce McAllister, all’epoca studente, che interrogò acutamente numerosi autori riguardo al loro rapporto con il simbolismo, ponendo l’accento su alcune delle risposte da lui ricevute, che gettano una luce rivelatrice sul symbol hunting e symbol planting. Dopodiché scenderò ancor più nel dettaglio, esemplificando con due storie brevi: Signs and Symbols (Segni e Simboli), di Vladimir Nabokov e Big Two-hearted River (Grande fiume a due cuori) di Hernest Hemingway. Dopodiché, analizzerò il falso simbolismo come luogo cinematografico, ponendo l’accento sugli aspetti di planting e hunting, e mi avvarrò dell’aiuto di due film significativi sul tema realizzati in tempi recenti, ovvero Inception (2010) e Memento (2000), di Christopher Nolan, che possono essere interpretati come una meta-critica dell’abuso di simboli, e rappresentano una pietra miliare nell’analisi di symbol planting e symbol hunting. In conclusione, proporrò la mia personale possibile soluzione, ovvero il prendere le opere d’arte in qualunque forma, specialmente di fiction, “così come sono”, separandole e scindendole dalle proprie aspettative. È necessario prendere in considerazione un ritorno alla letteralità, per poter avvicinarsi maggiormente alla vera anima di una storia, di un libro, di un film, altrimenti esiste la possibilità che tutto ciò che guardiamo o vediamo sia per sempre irrimediabilmente contaminato dalla nostra dimensione privata.