93 resultados para CALID Disambiguazione Autori Pubblicazioni Configurabile Parametrico
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
L’obiettivo di questa tesi di laurea è stato la valutazione delle sovratensioni generate da una scarica atmosferica in linee miste di tipo aerea-cavo affluenti a stazioni di trasformazione. Lo studio si è incentrato sul caso della fulminazione diretta su una fase della linea aerea, il cosiddetto shielding failure, nella situazione peggiore ovvero senza innesco degli spinterometri posti a protezione della catena di isolatori. Applicando la teoria dei diagrammi a graticcio, è stata studiata la propagazione di un’onda di tensione (gradino, triangolo rettangolo e triangolo scaleno), generata da una scarica atmosferica, lungo tre particolari configurazioni di una linea mista AT 132 kV. In particolare, è stato implementato un codice di calcolo in Matlab, con il quale sono state determinate le componenti riflesse, che si formano quando l’onda di tensione incidente va ad impattare nei punti di discontinuità d’impedenza d’onda della linea mista. Tale calcolo ha consentito sia la rappresentazione temporale del transitorio, sia la determinazione del valore di cresta raggiunto dalla sovratensione, in particolari punti sensibili della linea, quali le estremità della linea in cavo ed il collegamento con il trasformatore. Il calcolo analitico è stato poi confrontato con i risultati delle simulazioni relative alla fulminazione diretta su una fase della linea aerea, eseguite con il software EMTPWorks. Il lavoro si è incentrato in particolar modo, sulla determinazione del modello che va a simulare la linea mista presa in considerazione, anche mediante il confronto con un noto caso di studio riportato sulle pubblicazioni.
Resumo:
La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.
Resumo:
Paracentrotus lividus è un echinoderma bentonico marino appartenente alla classe Echinoidea, comune in tutto il Mar Mediterraneo e lungo le coste atlantiche dalla Scozia al Marocco. Questa specie è estremamente importante dal punto di vista ecologico in quanto specie chiave nella strutturazione della comunità bentonica macroalgale. Inoltre in tempi recenti il mercato delle sue gonadi ha subito una forte espansione rendendolo una specie di interesse economico in numerosi paesi europei. Il crescente prelievo sta gradualmente portando al depauperamento della risorsa, per questo motivo il riccio di mare è oggetto di numerosi studi e programmi a fini conservazionistici. Una maggiore conoscenza del ciclo riproduttivo della specie potrebbe risultare utile per una migliore gestione della risorsa. Pertanto, questo studio si propone di indagare sulla biologia di P. lividus in due aree distinte della Sardegna: Su Pallosu, nella Penisola del Sinis Sardegna centro-occidentale, e nell’Area Marina Protetta di Tavolara – Punta Coda Cavallo, Sardegna nordorientale, al fine di far luce sulle dinamiche del ciclo riproduttivo. Le informazioni bibliografiche a riguardo evidenziano l’influenza dei fattori ambientali quali fotoperiodo, idrodinamismo, temperatura e tipologia di pascolo sull’andamento del ciclo biologico e il momento di spawning. Diversi autori hanno osservato in Mar Mediterraneo sia un unico ciclo riproduttivo che due eventi riproduttivi annuali a conferma dell’ampia variabilità dell’andamento gonadico. Nel presente lavoro al fine di mettere in relazione le caratteristiche dell’habitat con il ciclo riproduttivo delle popolazioni in oggetto è stato analizzato l’andamento dell’Indice Gonadosomatico (IGS) su individui di diverse taglie/età, come rapporto fra il peso delle gonadi e il peso dell’individuo; inoltre a conferma dello stadio di maturazione è stata effettuata l’analisi istologica delle gonadi su campioni fissati e inclusi in paraffina, sezionati a 7μm e colorati con ematossilina-eosina prima di essere osservati al microscopio ottico. Mediante analisi d’immagine di foto subacquee utilizzando il programma Seascape è stata caratterizzata la componente macroalgale bentonica e la componente abiotica degli habitat (sabbia e roccia non vegetata) con particolare attenzione al calcolo della percentuale di ricoprimento delle specie vegetali. Inoltre i siti sono stati caratterizzati rispetto all’esposizione dei venti dominanti con elaborazione dei dati del periodo di campionamento per direzione, frequenza e intensità.
Resumo:
In numerosi campi scientici l'analisi di network complessi ha portato molte recenti scoperte: in questa tesi abbiamo sperimentato questo approccio sul linguaggio umano, in particolare quello scritto, dove le parole non interagiscono in modo casuale. Abbiamo quindi inizialmente presentato misure capaci di estrapolare importanti strutture topologiche dai newtork linguistici(Degree, Strength, Entropia, . . .) ed esaminato il software usato per rappresentare e visualizzare i grafi (Gephi). In seguito abbiamo analizzato le differenti proprietà statistiche di uno stesso testo in varie sue forme (shuffolato, senza stopwords e senza parole con bassa frequenza): il nostro database contiene cinque libri di cinque autori vissuti nel XIX secolo. Abbiamo infine mostrato come certe misure siano importanti per distinguere un testo reale dalle sue versioni modificate e perché la distribuzione del Degree di un testo normale e di uno shuffolato abbiano lo stesso andamento. Questi risultati potranno essere utili nella sempre più attiva analisi di fenomeni linguistici come l'autorship attribution e il riconoscimento di testi shuffolati.
Resumo:
Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.
Resumo:
I metalli pesanti presenti nei sedimenti marini possono essere rilasciati alla colonna d’acqua, in seguito a variazioni delle condizioni ambientali, ed entrare nelle catene trofiche degli organismi marini. A partire da una serie di campioni di sedimenti superficiali provenienti dalla Pialassa dei Piomboni (sito SIC-ZPS, a nord della Provincia di Ravenna), prelevati tra novembre e dicembre del 2012, è stato valutato il rischio potenziale associato alla presenza di metalli pesanti (Cd, Cu, Ni, Pb e Zn) per il biota residente nei sedimenti. È stato valutato il comportamento del rapporto SEM/AVS (contenuto di metalli simultaneamente estratti (SEM) e solfuri acidi volatili (AVS)) per ciascuno dei metalli oggetto dello studio. La metodica analitica ha previsto il trattamento dei campioni con HCl 6M, sotto flusso di azoto, e successivamente la lettura del contenuto di solfuro (raccolto in soluzioni di NaOH) e dei metalli pesanti allo spettrometro. Dal valore dei parametri chimico-fisici ottenuti nel momento del campionamento, è evidente che la zona interna della laguna risulta meno influenzata dalle maree rispetto a quella lungo il canale di navigazione. Le concentrazioni di metalli potenzialmente biodisponibili hanno evidenziato una distribuzione eterogenea. Del set di campioni analizzati, soltanto tre presentano un contenuto totale di metalli potenzialmente biodisponibili superiore al contenuto di solfuri labili (∑SEM/AVS>1), per cui la presenza di metalli bivalenti potrebbe rappresentare un rischio per il biota. Come suggerito da diversi autori, si è proceduto con l’ulteriore normalizzazione del rapporto (∑SEM/AVS) con il contenuto di carbonio organico relativo ad ogni campione di sedimento, escludendo possibili rischi associati alla presenza di metalli pesanti.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
Nella presente tesi sono riassunte le diverse posizioni epistemologiche riguardo alla relazione tra didattica e storia della matematica, insieme alle possibili funzioni di quest'ultima nell'attività scolastica. In particolare ci si è soffermati sull'opportunità di introdurre gli studenti ad un rapporto diretto con le fonti storiche. A tale scopo è stata condotta una sperimentazione in una classe di seconda Liceo, a cui sono stati proposti tre brani di diversi autori e secoli da esaminare in gruppo. Sono stati dettagliatamente descritti e successivamente analizzati i comportamenti messi in atto dagli studenti alla lettura delle fonti.
Resumo:
Questo elaborato si propone di introdurre il lettore all’universo di Andrea Camilleri, con particolare riferimento alle peculiarità linguistiche che contraddistinguono le sue opere. La lingua da lui utilizzata risulta in una combinazione di dialetto siciliano, italiano standard et una lingua familiare semi-inventata, a cui si aggiunge la varietà di registri impiegati, che investono tutte le variazioni del repertorio linguistico italiano. Questo tipo di scrittura complica il lavoro del traduttore, in quanto poche sono le lingue straniere che presentano una varietà dialettale simile a quella italiana. In particolare la lingua francese, profondamente legata alla norma e al bon usage, risulta poco elastica e quindi restia agli “sconvolgimenti” che invece Camilleri apporta, con risultati divertenti e apprezzati. L’opera oggetto del nostro studio, La stagione della caccia, insiste particolarmente sulla varietà diatopica, varietà che la traduttrice francese Dominique Vittoz ha deciso di preservare impiegando una parlata regionale poco conosciuta, ma appartenente al suo ambito familiare: il lionese. In tal modo, ricorrendo a tecniche di equivalenza e di compensazione, la traduttrice riesce abilmente e rendere in francese la stessa espressività del testo italiano, caratterizzando i personaggi attraverso il loro modo di esprimersi. Lo scopo del nostro lavoro è quello di dimostrare, attraverso l’analisi di alcune parti del testo, che la variazione diatopica è presente tanto nell’opera originale quanto nella sua traduzione. Inoltre, questa analisi ci permetterà di confrontare la situazione sociolinguistica di Italia e Francia, e di passare in rassegna i problemi e le strategie della traduzione in prospettiva sociolinguistica, con particolare attenzione alla traduzione di un linguaggio non standard. Una questione che continua a suscitare numerosi dibattiti e affascina traduttori, autori e non solo.
Resumo:
Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
L’analisi compiuta in questa tesi di laurea è motivata da una passione che fin dall’infanzia ho coltivato: quella per il Giappone. Con il passare degli anni gli aspetti del Giappone che mi hanno stimolato e incuriosito sono evoluti, come la volontà di approfondire una conoscenza sempre più completa di questo popolo e della loro cultura – facendo anche tesoro dell’esperienza di viaggio fatta nel 2012, visitando Tokyo e Kyoto. Notai nel mio breve soggiorno a Tokyo un qualcosa che qua non trovavo negli edifici: un eterno conflitto con lo spazio. Sono rimasto sorpreso dagli spazi angusti, dalle dimensioni lillipuziane delle case, spesso caratterizzate da standard qualitativi intollerabili per un occidentale, ma allo stesso tempo mi ha impressionato la tecnologia disponibile per la vita di tutti i giorni, che permetteva di sopperire a queste mancanze o deficit. Kyoto mi ha invece colpito per la tradizione, per la storia, per le sue architetture lignee – una città capace di fare convivere in armonia il passato col presente nel pieno rispetto della natura. I suoi colori, i suoi paesaggi bucolici non li dimenticherò facilmente... Il percorso di analisi che si svolgerà in questa sede includerà, partendo dalla tradizione fino ad arrivare al presente, le tematiche di cui si è appena parlato: casa giapponese, misura, standard, spazio. Si è partiti dall’analisi descrittiva e dalle splendide illustrazioni del zoologo americano Edward Morse, analizzando il suo volume “Japanese Homes and Their Surroundings” pubblicato alla fine del 1800 e divenuto un libro di culto per gli architetti moderni, per poi arricchire l’analisi con le tantissime informazioni e tavole tecniche fornite da Heinrich Engel con il libro “The Japanese House – A tradition for contemporary architecture”, un testo veramente formativo e altamente specifico per l’architettura vernacolare giapponese. Si arricchisce la discussione con Paper e pubblicazioni di professori giapponesi, racconti di narrativa e guide sul Giappone, per poi concludere l’analisi con libri di architettura moderna giapponese come il volume di Naomi Pollock “Modern Japanese House” e riviste quali JA (Japan Architects) per fornire esempi contemporanei di costruzioni residenziali odierne.
Resumo:
Lavoro svolto per la creazione di una rete citazionale a partire da articoli scientifici codificati in XML JATS. Viene effettuata un'introduzione sul semantic publishing, le ontologie di riferimento e i principali dataset su pubblicazioni scientifiche. Infine viene presentato il prototipo CiNeX che si occupa di estrarre da un dataset in XML JATS un grafo RDF utilizzando l'ontologia SPAR.
Resumo:
Il presente lavoro ha come obiettivo quello di fornire informazioni generiche sul doppiaggio, comprendenti la sua nascita, il suo sviluppo e le tecniche adottare da traduttori, dialoghisti e adattatori che si occupano della traduzione audiovisiva. Partendo da questi aspetti generici, l’analisi si focalizzerà sulla traduzione per il doppiaggio, in particolare per quanto concerne gli aspetti umoristici e comici di serie televisive e film, prendendo come esempio più specifico la sitcom americana “How I Met Your Mother”. Lo studio si concentrerà su un confronto tra la versione originale americana in lingua inglese e la versione doppiata in italiano, individuando problemi legati alla traduzione, rese adeguate e, in alcuni casi, inadeguate. Nello specifico, nel primo capitolo si definiranno le fasi che hanno caratterizzato la storia del doppiaggio, dalla sua nascita al suo stato attuale. Successivamente si esporranno le tecniche di doppiaggio e le difficoltà che i traduttori inevitabilmente incontrano durante il processo di adattamento audiovisivo. Nel secondo capitolo, invece, si forniranno le definizioni di comicità e umorismo secondo diversi autori e fonti autorevoli, concentrandosi soprattutto sulle problematiche derivanti dalla non universalità dell’umorismo. Nella seconda parte del capitolo si analizzeranno più a fondo le tecniche del doppiaggio legate al mondo dell’umorismo e della comicità e le numerose problematiche derivanti dalla presenza di battute di spirito, giochi di parole e barzellette nella versione originale. Nel terzo e ultimo capitolo lo studio si focalizzerà sulla sitcom americana “How I Met Your Mother”, fornendone una breve trama e presentazione dei personaggi. L’analisi diverrà successivamente più dettagliata e riguarderà alcune espressioni comiche ricorrenti e dialoghi tratti dalla settima e ottava stagione della serie televisiva in questione, concentrandosi in particolare su quelle scene in cui entra in gioco l’umorismo e la loro resa nella lingua di arrivo, in questo caso l’italiano.