658 resultados para acque, Marecchia, tecniche analitiche, nitrati


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato ha lo scopo di descrivere le principali caratteristiche e applicazioni delle biomembrane lipidiche artificiali utilizzate nel campo biochimico e biomedico. Nel Capitolo 1. viene presentata una panoramica generale della membrana cellulare, descrivendo la sua struttura a “mosaico fluido” e i principali componenti che la costituiscono, cioè i lipidi e le proteine transmembrana. Viene quindi descritto uno dei ruoli fondamentali della membrana cellulare, ovvero il trasporto di soluti all’interno e all’esterno della cellula. Vengono schematizzate le tipologie di trasporto, attivo e passivo, e la funzione dei canali ionici, un particolare tipo di proteina transmembrana che permette il passaggio selettivo di ioni dall'esterno all'interno della cellula o viceversa. Il Capitolo 2. si focalizza sui principali modelli di biomembrane lipidiche artificiali. Infatti, a seconda del tipo di metodo e di materiale utilizzato, è possibile ottenere dei prototipi che differiscono per caratteristiche e funzionalità. Verranno illustrate le membrane lipidiche nere (BLM), i doppi strati lipidici (bilayer) con supporto solido (SLB), i bilayer lipidici ibridi e i doppi strati con ammortizzatore polimerico. Per ognuna di queste biomembrane artificiali verranno analizzati i metodi di formazione e gli utilizzi in campo biomedico. Verranno poi descritti i metodi di incorporazione delle proteine nel doppio strato lipidico e le tecniche per stabilizzare il bilayer e realizzare una piattaforma sensoriale. Nel Capitolo 3 verranno presentate le principali applicazioni che utilizzano membrane artificiali, sia per lo studio dei principali processi cellulari di membrana e screening dei farmaci sia per la realizzazione di piattaforme sensorizzate. Infine nel Capitolo 4. si considereranno le innovazioni attese nel campo delle biomembrane artificiali anticipando le loro potenziali applicazioni future. Infatti, le prospettive in questo campo sono molto promettenti soprattutto per quel che riguarda lo screening di nuovi farmaci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 2011, circa 5 milioni di persone usavano regolarmente applicativi mobi-le basati su qualche forma di realtà aumentata. Secondo alcune previsioni entro il 2020 servizi che sfruttano questa tecnologia avranno una base di utenti che rasenta un settimo della popolazione mondiale, rendendo di fatto la realtà aumentata l’ottavo mezzo di comunicazione di massa dopo la stampa, l’audio registrato, il cinema, la radio, la televisione, internet ed infine i servizi multimediali mobile. La tesi si propone di illustrare le caratteristiche di questa tecnologia distinguendo varie tecniche e strumenti a disposizione degli sviluppatori per costruire l’esperienza di augmented reality. Entrando nel merito dello sviluppo software si analizza una architettura di riferimento proposta per sistemi di realtà aumentata e pattern per lo sviluppo dei diversi componenti. Infine vengono confrontati gli SDK oggi più diffusi cercando di evidenziarne caratteristiche comuni e peculiarità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fissazione esterna si propone come una metodica alternativa molto valida nel trattamento delle fratture di bacino e delle ossa lunghe, nel massimo rispetto delle parti molli e dell’osso, e nel recupero precoce del movimento articolare. I maggiori vantaggi nell’utilizzo dei fissatori esterni sono rappresentati: dalla possibilità di essere utilizzati in una gamma di situazioni complesse, nelle quali le tecniche tradizionali non danno buoni risultati (ad esempio fratture esposte), dalla semplicità del procedimento chirurgico, dal fatto che evitano un secondo tempo chirurgico per la rimozione dei mezzi di sintesi. Contrariamente a tutti i mezzi di sintesi inoltre, sono indicati nel caso di infezioni. A livello articolare invece, la loro presenza, contrariamente a un gesso, consente la mobilizzazione precoce, sia passiva che attiva, dell’arto interessato, fondamentale per una completa ripresa funzionale. L'esperienza di questa tesi ha mostrato che i criteri di valutazione di un sistema di fissazione esterna sono rappresentati da: stabilità dell’impianto, cioè la capacità del sistema di mantenere la riduzione ottenuta resistendo alle forze di sollecitazione nel tempo, deformabilità elastica dell’impianto, cioè la possibilità di consentire e promuovere micromovimenti a livello del focolaio di frattura, versatilità dell’impianto, cioè la possibilità di realizzare montaggi diversi per rispondere a specifiche richieste terapeutiche, massimo rispetto biologico da parte degli elementi di presa, con un’accettabile ingombro per evitare intolleranze soggettive e semplicità d’applicazione. Pertanto i vantaggi clinici sono: minima invasività, sintesi stabile, compressione inter-frammentaria, versatilità, mobilizzazione precoce e carico precoce. Il presente lavoro si è rivelato uno strumento utile per arrivare alla progettazione finale di un sistema circolare e di un sistema ibrido che possano rispondere entrambi a tutti i requisiti sopra elencati. Ha focalizzato innanzitutto la propria attenzione su un sistema circolare, con il fine ultimo di descrivere in quale modo esso risponde all’applicazione di differenti cicli di carico. La particolarità del sistema studiato è rappresentata dalla possibilità di combinare il sistema circolare con un dispositivo articolato di ginocchio, costituendo così un sistema ibrido di fissazione esterna. Il sistema ibrido ha unito la rigidezza garantita dal sistema monolaterale all’elasticità dei sistemi circolari, in modo tale che le forze, che altrimenti agirebbero sul focolaio di frattura, si possano scaricare sia sul dispositivo monolaterale sia sui cerchi. L’elaborato ha focalizzato quindi la sua attenzione sul sistema ibrido, formato dalla combinazione del sistema circolare e del dispositivo monolaterale articolato, con il fine ultimo di descrivere come anch’esso risponde all’applicazione di differenti cicli di carico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie alla loro versatilità, i velivoli multirotore hanno ricevuto sempre più interesse durante gli ultimi anni, in ambito accademico e di recente anche industriale. Il lavoro presentato è volto a studiare e confrontare le moderne tecniche di navigazione e di controllo di questo tipo di velivoli. Difatti, spesso, gli algoritmi utilizzati sono stati limitati dalla capacità di calcolo del processore imbarcato e dalla qualità dei sensori utilizzati. Negli ultimi anni, però, lo sviluppo della microelettronica ha ricevuto un forte impulso (dovuto principalmente alla ricerca nell’ambito della telefonia), che ha portato all’abbattimento dei costi e alla nascita di progetti opensource, tra i quali le famose schede Arduino prodotte da Olivetti, attorno alle quali si sono sviluppati molti progetti di velivoli opensource. L’importanza di ciò, in ambito accademico, è rilevante, poiché consente l’utilizzo di algoritmi e di configurazioni hardware comprovati, lasciando spazio a modifiche e migliorie. Nel nostro caso, in particolare, si vuole osservare come complessi algoritmi di navigazione, resi possibili da un processore più potente, possano migliorare le prestazioni del noto progetto opensource ArduPilot [3]. Tali miglioramenti possono essere rilevanti in applicazioni per le quali sia richiesta una certa precisione nel posizionamento, come ad esempio lo studio di formazioni o la navigazione in ambienti angusti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’area dell’ingegneria tissutale si sta affermando una nuova tecnica che consiste nell’utilizzo di scaffold per la rigenerazione dell’apparato renale. Nella presente tesi, dopo un’introduzione fatta sulle terapie per la sostituzione renale, sono state analizzate le tecniche, le caratteristiche e presentati i risultati finora raggiunti nella decellularizzazione e ricellularizzazione di scaffold renali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnologia odierna, orientata sempre di più verso il “low-power”, ha permesso di poter sviluppare sistemi elettronici in grado di autoalimentarsi senza alcun bisogno di sorgenti di energia tradizionali. Questo è possibile, ad esempio, utilizzando trasduttori piezoelettrici, in grado di trasformare l’energia meccanica, provocata ad esempio da una vibrazione, in un’altra forma di energia che, in tal caso, risulta essere una grandezza elettrica. Il settore principale in cui viene impiegato questo componente è quello dell’Energy Harvesting, ovvero un campo dell’elettronica in cui si cerca di estrarre dall'ambiente circostante bassissime quantità di energia mediante tecniche opportune, cercando di ridurre i consumi dei circuiti di controllo annessi e renderli, in maggior parte, il più possibile autosufficienti. L’obiettivo è quello di implementare alcune tecniche di recupero dell’energia mediante circuiti gestiti a microcontrollore e valutare se tali metodiche portino a risultati accettabili in grado di soddisfare quelli che sono i requisiti che il mondo dell’Energy Harvesting richiede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato si propone di introdurre il lettore all’universo di Andrea Camilleri, con particolare riferimento alle peculiarità linguistiche che contraddistinguono le sue opere. La lingua da lui utilizzata risulta in una combinazione di dialetto siciliano, italiano standard et una lingua familiare semi-inventata, a cui si aggiunge la varietà di registri impiegati, che investono tutte le variazioni del repertorio linguistico italiano. Questo tipo di scrittura complica il lavoro del traduttore, in quanto poche sono le lingue straniere che presentano una varietà dialettale simile a quella italiana. In particolare la lingua francese, profondamente legata alla norma e al bon usage, risulta poco elastica e quindi restia agli “sconvolgimenti” che invece Camilleri apporta, con risultati divertenti e apprezzati. L’opera oggetto del nostro studio, La stagione della caccia, insiste particolarmente sulla varietà diatopica, varietà che la traduttrice francese Dominique Vittoz ha deciso di preservare impiegando una parlata regionale poco conosciuta, ma appartenente al suo ambito familiare: il lionese. In tal modo, ricorrendo a tecniche di equivalenza e di compensazione, la traduttrice riesce abilmente e rendere in francese la stessa espressività del testo italiano, caratterizzando i personaggi attraverso il loro modo di esprimersi. Lo scopo del nostro lavoro è quello di dimostrare, attraverso l’analisi di alcune parti del testo, che la variazione diatopica è presente tanto nell’opera originale quanto nella sua traduzione. Inoltre, questa analisi ci permetterà di confrontare la situazione sociolinguistica di Italia e Francia, e di passare in rassegna i problemi e le strategie della traduzione in prospettiva sociolinguistica, con particolare attenzione alla traduzione di un linguaggio non standard. Una questione che continua a suscitare numerosi dibattiti e affascina traduttori, autori e non solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro tratta la progettazione e caratterizzazione di una nuova "listening room" ad acustica controllata partendo dai requisiti dettati dalle norme tecniche ITU-R BS 1116-1 e EBU/UER Tech. doc. 3276. Ad oggi è presente un'ampia letteratura, che tratta approcci per valutazione acustica delle sale di ascolto. Essa inizialmente era volta a trovare proporzioni ideali tra le dimensioni della camera, poi la ricerca si è spostata sull'elaborazione di modelli previsionali. Purtroppo tali metodi spesso non riescono a garantire le prestazioni desiderate, mentre le prove sperimentali dettate dalle norme risultano essere di comprovata validità. L'ambiente oggetto di studio è stato progettato all'interno dello spazio dei laboratori CIRI. La tecnologia costruttiva è frutto di uno studio approfondito, in particolare la scelta di fibre di poliestere termolegate, per il rivestimento delle pareti interne, è stata valutata attraverso misure in camera riverberante secondo UNI-EN-ISO 354. Si è poi seguita una metodologia iterativa che coinvolgesse messa in opera, misurazioni in situ e valutazione tramite confronto con i parametri consigliati dalle normative tecniche sopra citate. In quest'ottica sono state effettuate acquisizioni di risposte all'impulso monoaurali e dei livelli di pressione sonora per verificare la qualità di isolamento e il comportamento alle basse frequenze. La validazione restituisce indicazioni positive per gli utilizzi dell'ambiente ipotizzati e risulta compatibile con le stringenti richieste delle norme tecniche.