990 resultados para Irigaray, Luce
Resumo:
Scopo di questa tesi è argomentare l’utilità dello shadowing nella formazione degli interpreti, basandosi sulla Teoria motoria della percezione del linguaggio di Alvin Liberman e muovendosi all’interno del quadro teorico della più ampia embodied cognition, che include teorie sullo sviluppo del linguaggio e sull’acquisizione di seconde lingue. Nella formazione degli interpreti, lo shadowing è un esercizio che consiste nell’immediata ripetizione di quanto udito in cuffia, parola per parola e nella medesima lingua del testo di partenza ed è generalmente utilizzato come esercizio propedeutico alla simultanea, in quanto permette sia di “imparare” ad ascoltare e a parlare contemporaneamente, sia di migliorare la pronuncia e la fluidità in lingua straniera. Tuttavia, all’interno degli Interpreting Studies, ci sono studiosi che lo ritengono un esercizio inutile e, per certi versi, pericoloso poiché porrebbe l’accento su un processo eccessivamente “meccanico” dell’interpretazione. Per argomentare la sua utilità nella didattica dell’interpretazione, in questa tesi, dopo aver presentato le principali teorie sullo sviluppo del linguaggio e sull’acquisizione di seconde lingue, si passeranno in rassegna i risultati di ricerche condotte non solo all’interno degli Interpreting Studies, ma anche nella più ampia prospettiva della didattica delle lingue straniere/seconde, e soprattutto in neurolinguistica e psicologia cognitiva, dove lo shadowing è utilizzato per analizzare i processi cognitivi che sono alla base della ricezione e produzione del linguaggio (articolazione motoria, memoria di lavoro, attenzione selettiva, ecc.). L’ultimo capitolo di questo lavoro sarà dedicato alla descrizione di un approccio estremamente recente sulla percezione e sulla produzione del linguaggio, che coniuga la Teoria motoria della percezione del linguaggio di Liberman (1967) con la recente scoperta dei neuroni specchio, e che getta una luce nuova sull’utilità dello shadowing nella formazione degli interpreti.
Resumo:
La presente tesi di laurea si concentra sulla localizzazione in inglese di varie sezioni del nuovo sito web della Pinacoteca di Brera. Il progetto di localizzazione è stato contestualizzato da un lato all’interno della letteratura sulla comunicazione museale, e dall’altro sulla comunicazione web, per poter avanzare proposte di miglioramento alla luce di ricerche nel campo della SEO (Search Engine Optimization). Lo studio della comunicazione museale si è arricchito grazie all’esperienza di documentazione presso la University of Leicester (UK). La tesi mira a porre le basi per la produzione di contenuti museali adatti ad una lettura sul web, in modo da offrire non solo una traduzione ben fatta dal punto di vista linguistico e culturale, ma anche facilmente fruibile per un utente online e reperibile attraverso motori di ricerca. L’elaborato intende fornire ai musei italiani alcuni spunti di riflessione circa possibili miglioramenti delle proprie piattaforme online grazie alla localizzazione e ad un’analisi approfondita dei contenuti web secondo principi di usabilità e visibilità. Il capitolo 1 introduce la letteratura sugli studi museali, prestando particolare attenzione alla comunicazione. Il capitolo 2 fornisce una panoramica generale sul web: vengono suggerite buone pratiche di web writing, analizzate le strategie di SEO per migliorare la visibilità dei siti e delineato le principali caratteristiche del processo di localizzazione. Il capitolo 3 riunisce i due universi finora esplorati individualmente, ovvero i musei e il web, concentrandosi sulla comunicazione online dei musei e concludendo con uno schema di valutazione dei siti dei musei. Il capitolo 4 applica le strategie precedentemente discusse al caso specifico della Pinacoteca di Brera, concentrandosi sulla valutazione del sito, sulla localizzazione di alcune sezioni e sulla proposta di strategie SEO. Infine, il capitolo 5 tira le fila dell’intero lavoro mettendo in evidenza i principali risultati ottenuti.
Resumo:
In questo lavoro di tesi è stata investigata la possibilità di utilizzare particolari composti inorganici chiamati metallo-esacianometallati per la produzione elettrochimica di idrogeno. In particolare, elettrodi di glassy carbon (GC) sono stati modificati con TiO2-esacianometallati, come il cobalto-esacianoferrato (CoHCF), indio-esacianoferrato (InHCF) e nichel-cobalto esacianoferrato (NiCoHCF) e le loro performance per la produzione elettrocatalitica di idrogeno sono state esaminate con e senza esposizione alla luce UV. La spettroscopia IR e diffrazione dei raggi X di polveri (XRD) sono stati utilizzate per studiare la morfologia e la struttura dei campioni di TiO2 modificata con metallo-esacianoferrati. La caratterizzazione elettrochimica è stata eseguita attraverso voltammetria ciclica (CV) e cronopotenziometria. Per ottimizzare le condizioni, l'influenza di alcuni parametri tra cui la quantità di catalizzatori nella composizione dell’elettrodo ed il pH dell'elettrolita di supporto sono stati esaminati nel processo di produzione di idrogeno. Gli studi effettuati utilizzando gli elettrodi modificati, evidenziano la migliore performance quando l’elettrodo è modificato con TiO2-InHCF ed è esposto a luce UV. L'elettrodo proposto mostra diversi vantaggi tra cui un lungo ciclo di vita, basso costo, ottima performance e facilità di preparazione su larga scala, potrebbe quindi essere considerato un candidato ideale per la produzione elettrocatalitica di idrogeno.
Resumo:
In questo lavoro di tesi sperimentale si è sintetizzata e caratterizzata la prima classe di complessi tetrazolici di Ir(III) anionici con formula generale [Ir(C^N)2(L)2]-, in cui oltre ai leganti ciclometallanti ”C^N” quali 2-fenilpiridinato (ppy) o 2-(2,4-difluorofenil)piridinato (F2ppy), sono stati introdotti due anioni tetrazolato (L) come il 5-fenil tetrazolato (Tph) oppure 5-(4-cianofenil) tetrazolato (TphCN). I complessi di Ir(III) anionici ottenuti si sono mostrati intensamente fosforescenti, con emissioni centrate nella regione del blu o del verde (460 < λmax<520 nm). I derivati anionici sono stati poi combinati con complessi Ir(III) tetrazolici cationici in grado di fornire emissione nella regione del rosso (λmax > 650 nm), formando così i primi esempi di coppie ioniche (“soft salts”) a matrice puramente tetrazolica. In tutti i casi si è osservato come il colore emesso da parte dei soft salts sia il risultato di una vera propria sintesi additiva delle emissioni derivanti da componenti ioniche con proprietà fotoemittive differenti. La sostanziale assenza di fenomeni di energy o electron transfer tra la componente anionica e cationica e il giusto bilancio tra le emissioni blu o verdi e rosse si sono tradotte, in taluni casi, nell’ottenimento di luce bianca, con la possibilità di variare ulteriormente i colori emessi in seguito all’allontanamento dell’ossigeno molecolare disciolto nelle soluzioni dei soft salts stessi.
Resumo:
La conoscenza dell’età e della crescita dei bivalvi è un requisito fondamentale per uno studio di dinamica di popolazione e per una gestione ottimale della risorsa. Lo scopo di questa tesi è quello di individuare una metodologia valida per riconoscere la precisa natura dell’origine dei microincrementi di crescita nel guscio di Chamelea gallina, riconoscendo le discontinuità annuali all’interno del guscio. Sono stati prelevati gusci di individui di C. gallina provenienti da un precedente campionamento nella baia della Vallugola il 06/09/2013. Le valve sono state incluse in resina epossidica e sezionate dall’umbone al margine centrale e levigate così da poter osservare le fettine ottenute allo stereomicroscopio a luce trasmessa. Il vantaggio riscontrato di questa metodologia è rappresentato dalla inaccessibilità delle strutture di deposizione alle perturbazioni ambientali anche se risulta impossibile annullare i possibili effetti dovuti all’attività di pesca o di altri eventi stressanti. Sono stati individuati solamente organismi con uno o due anni di età. I picchi di rallentamento della crescita sincronizzati in ogni classe di taglia potrebbero indicare tassi di accrescimento costanti entro le classi di taglia. Si può notare inoltre una certa ciclicità con cui si presentano i picchi di rallentamento della crescita. Essi si presentano circa ogni 10-12 crestine corrispondenti ipoteticamente ad una annualità. Un limite di questa metodica è dato dal fatto che si riesce a leggere l’informazione contenuta nel guscio ma, senza una validazione non è possibile associarla ad un preciso periodo di vita dell’organismo. A causa delle tempistiche limitate, non è stato possibile condurre esperimenti di crescita in campo per validare la periodicità delle micro linee di accrescimento ma sarebbe auspicabile in futuro riuscire a svolgere almeno una delle diverse metodiche di validazione.
Resumo:
Tesi curriculare che riesamina una selezione di progetti di Composizione Architettonica alla luce del tema comune della Rigenerazione dei Tessuti Urbani.
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.
Resumo:
La tesi contiene uno studio sperimentale sul comportamento di una sabbia limosa del sottosuolo della laguna veneta e propone un'interpretazione dei risultati sperimentali ottenuti alla luce dei presupposti teorici di un approccio costitutivo avanzato noto come "Plasticità Generalizzata". Il programma sperimentale è consistito nella realizzazione di prove edometriche e prove triassiali su campioni di sabbia provenienti dal sito di Treporti, situato in prossimità della bocca di Lido. La risposta sperimentale, in termini di modulo volumetrico, è stata messa a confronto con i risultati di alcuni studi di letteratura, con particolare riferimento a quelli condotti da Jefferies & Been (2000). La disponibilità di prove di compressione edometrica realizzate nella cella K0 e la conseguente possibilità di valutare il coefficiente di spinta a riposo ha permesso di interpretare le prove in termini di tensione media efficace p' e di verificare l'applicabilità al caso in esame degli approcci di letteratura disponibili, spesso sviluppati a partire da prove di compressione isotropa effettuate in cella triassiale. Il comportamento tenso-deformativo osservato è stato successivamente simulato con un modello costitutivo per sabbie sviluppato nell'ambito della Plasticità Generalizzata. In particolare sono state utilizzate tre diverse formulazioni, che costituiscono un avanzamento dell'iniziale modello costitutivo proposto da Pastor, Zienkiewicz e Chan (1990), basate sull'uso di un parametro di stato del materiale definito rispetto alle condizioni di Stato Critico. Dal confronto tra previsioni del modello e risposta sperimentale è stato possibile individuare la formulazione che meglio simula il comportamento meccanico osservato sia in compressione edometrica sia in prove di taglio ed è stato proposto un set di parametri costitutivi ritenuti rappresentativi del terreno studiato.
Resumo:
Nel corso degli ultimi decenni la fisica sperimentale ha raggiunto notevoli traguardi nel campo della manipolazione di sistemi di atomi freddi, riaccendendo l'interesse della ricerca su sistemi a lungo studiati teoricamente, ma fino a poco tempo fa impossibili da realizzare sperimentalmente. Questa riaccesa attenzione ha permesso di sfruttare le moderne capacità di calcolo per studiare sistemi quantistici che ancora risultano di difficile realizzazione. In questo contesto si inserisce il rinnovato interesse per i sistemi quantistici monodimensionali caratterizzati dalla presenza di potenziale disordinato. Questi presentano proprietà di trasporto particolari e sotto particolari condizioni sono oggetto di una transizione di localizzazione. La maggior parte degli studi in questo campo rivolgono la loro attenzione a sistemi di particelle fermioniche interagenti. In questo lavoro di tesi analizziamo, invece, sistemi quantistici fermionici non interagenti, mettendo in luce quanto già noto e proponendo strumenti di analisi derivati dallo studio dei sistemi interagenti. In particolare, proponiamo un'analisi statistica dei livelli energetici e poniamo le basi per futuri studi a riguardo.
Resumo:
Poiché nell’ultimo decennio i dispositivi mobile assumono un ruolo sempre più determinante nello svolgimento della vita stessa, nel corso del tempo si sono ricercate e sviluppate app per facilitare le più svariate operazioni quotidiane. Visto la vastità del mercato degli smartphone, nel tempo sono stati sviluppati vari sistemi operativi in grado di governare queste piattaforme. Per una azienda, tuttavia, gestire i costi di implementazione di una stessa app in ambienti differenti risulta più oneroso che gestire i costi di una sola in grado di operare nei diversi sistemi operativi. Quest’ultimo tipo di app viene comunemente denominato app multipiattaforma. Un modo per implementare questo genere di applicazioni vede come strumento di utilizzo Visual Studio, noto IDE. Nel caso specifico Visual Studio ha integrato il progetto Apache Cordova per le creazione di applicativi multipiattaforma. In questo elaborato di tesi tramite i due strumenti appena introdotti si sono sviluppate due differenti app, al fine di valutarne le performance in termini di tempo. La prima app propone la risoluzione di un noto problema di calcolo combinatorio conosciuto con il nome di Knapsack, ovvero il problema dello zaino. La seconda cerca invece di digitalizzare una semplice espressione matematica contenuta in un’immagine e di fornirne quindi il risultato. Dai dati ottenuti si possono operare confronti per determinare la validità dello strumento di sviluppo, mettendo in luce anche possibili evoluzioni di queste due app.
Resumo:
Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.
Resumo:
Nell'ambito di questa tesi, sono trattate le proprietà dei Nuclei Galattici Attivi(AGN) e dei loro getti. In particolare è stata esaminata la radiogalassia M87. Quest'ultima ha un getto che si muove apparentemente con velocità superiori a quella della luce, il cosidetto moto superluminale. É stato preso in esame la parte iniziale del getto. I dati sono stati presi dal progetto pubblico "Mojave", in modo tale da poter essere analizzati tramite il software AIPS, per ricavare informazioni inerenti al moto di una sottostruttura del jet. É stato trovato che questa componente ha una velocità apparente bassa(0.05 c), mentre la velocità collettiva del jet è fortemente relativistica.