964 resultados para Lamina propria
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
In questa tesi si vuole parlare dello sviluppo e dell'implementazione di un'applicazione per smartphone. L'applicazione in questione si chiama BusinessChat, è stata sviluppata per Android e utilizza sia lato server, sia lato Client. BusinessChat è un applicazione che mette in contatto consumatori e gestori di attività. Lo scopo dell'app è quindi quello di permettere al consumatore, di comunicare con il business in maniera più immediata, semplice e diretta. Per quanto riguarda il business può utilizzare quest'app sia per fornire un servizio al proprio cliente che per utilizzarla per pubblicizzare la propria attività, ad esempio con messaggi in broadcast a tutti i propri contatti (questa funzione non è ancora presente nella nostra applicazione, ma verrà aggiunta in un breve futuro). L'utente può ricercare, attraverso l'uso di una mappa, una particolare attività, ed eventualmente mettersi in contatto con lei, ad esempio, se ciò che cerchiamo è un ristorante, potremmo voler sapere se questa sera sono ancora disponibili dei posti liberi nel proprio locale, oppure se ad esempio volessimo ordinare delle pizze da asporto dalla nostra pizzeria di fiducia o sapere se sono attrezzati per gestire clienti allergici al glutine, o più semplicemente per conoscere l'orario di chiusura, tutto questo sarebbe possibile farlo attraverso pochissimi passi grazie a BusinessChat.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.
Applicazioni mobili in ambito turistico: stato dell'arte, tassonomia e valutazione di casi di studio
Resumo:
Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.
Resumo:
Tematiche di violenza e aggressione sono oggi di estrema attualità e sempre più spesso se ne sente parlare al telegiornale o in programmi specializzati. Aggressione per molestie, furto o per scopi razziali; le motivazioni e i casi d'interesse sono vari e spesso hanno inizio senza alcun apparente motivo e la sensazione di sentirsi sempre meno al sicuro, anche appena usciti di casa, può degenerare ad una vera e propria paranoia. L'unica cosa che è sempre al nostro fianco, oggi giorno, sono i nostri smartphone, che risultano sempre più sofisticati e intelligenti; perché, allora, non provare ad usarli come protezione? L'obiettivo su cui si è incentrata questa tesi è, appunto, il riconoscimento di un'aggressione basata sull'analisi della situazione in cui si trova l'utente, attraverso l'uso dei sensori messi a disposizione dagli odierni smartphone in circolazione. Esistono già numerose applicazioni per la sicurezza personale, ma il metodo utilizzato per la segnalazione di un'aggressione è sempre basato sulla pressione di un pulsante o un'azione particolare che l'utente deve svolgere. L'applicazione creata in questo studio, invece, cerca di riconoscere le situazioni di pericolo osservando i movimenti dell'utente e basa il riconoscimento sulla presenza di situazioni fuori dalla normale quotidianità che, attraverso dei "controlli di conferma", permettono di riconoscere il pericolo in maniera completamente autonoma. Si è deciso di approcciarsi ad un riconoscimento autonomo, in quanto, non sempre si ha la possibilità, o il tempo, di prendere in mano il proprio smartphone per avvisare del pericolo e molte volte il panico potrebbe far perdere la lucidità alla vittima, il cui primo pensiero è quello di difendersi e scappare e non utilizzare il dispositivo. Altre volte, distrarsi anche per un secondo, potrebbe essere fatale per la propria sicurezza. Per questo motivo si è ricercato un'approccio di riconoscimento basato "sull'osservazione" di ciò che sta accadendo, piuttosto che sull'attesa di un segnale. L'obiettivo di riconoscimento prefissato è stato quello delle aggressioni in strada e i sensori utilizzati a questo scopo sono stati: accelerometro, giroscopio, GPS e microfono. Attraverso la combinazione di questi sensori, infatti, è stato possibile riconoscere cadute (di forte entità), urla e probabili spinte/strattoni. Si sono studiate, per tanto, le caratteristiche che collegassero queste tipologie di situazioni per ogni sensore preso in esame, costruendo un'approccio di riconoscimento risultato valido per gli obiettivi minimi prefissati.
Resumo:
Mycelium Tectonics è un lavoro multidisciplinare che interseca l’architettura con la biologia e con la tecnologia. Il concetto di tettonica - qui definito come il territorio in cui si costruiscono le relazioni tra l’organizzazione formale e i processi di funzionamento endogeni - viene indagato partendo da un punto di vista materico, dai limiti fisici e meccanici della materia e dalle differenze che ne possono emergere attraverso il cambio di scala. Procedendo dunque dal basso, sono stati studiati fenomeni quali l’auto-organizzazione e le intelligenze collettive, costituite da elementi con comportamenti autonomi, in cui l’organizzazione globale non è pianificata a priori ma emerge dalle interrelazioni degli elementi stessi. Si è tentato di descrivere una tettonica in cui fosse proprio la differenziazione e la variazione, di cui il sistema è intrinsecamente capace, a produrre una propria forma di organizzazione tettonica ed estetica su cui la funzionalità potesse essere mappata in modi non convenzionali. La biologia fornisce in questo diversi stimoli circa il concetto di costruire in termini di articolazione spaziale e adattabilità: in natura ogni struttura viene generata mediante processi di crescita intrinsecamente coerenti, e le relazioni che la regolano rendono impossibile scindere le parti dal tutto; una logica profondamente differente dai processi produttivi - e costruttivi – odierni, che racchiude in questo il potenziale per superarne i limiti. L’esperienza di laboratorio ha permesso un’ indagine approfondita sulle capacità esplorative e di morfogenesi del micelio: un organismo pluricellulare molto semplice formato da numerosi filamenti (ife), capaci di ramificarsi e riconnettersi tra loro per formare una rete biologica di trasporto. Le strategie messe in atto durante la crescita, poi simulate digitalmente, si sono evidenziate durante tutto il percorso di ricerca pratica, fornendo non solo motivo di dibattito teorico, quanto stimoli e possibilità a livello operativo. Partendo dagli esperimenti in vitro, lo studio si è poi soffermato sulla possibilità di far crescere il micelio (della specie Pleurotus Ostreatus) su strutture fibrose di canapa. Queste sono state simulate ed indagate digitalmente, al fine di costruire prototipi fisici da far colonizzare attraverso una crescita controllata del micelio. I modelli, lasciati essiccare, mostrano caratteristiche e performance emergenti, coerentemente alle premesse architettoniche. Considerando i risultati - seppur parziali - dell’attività teorico-sperimentale condotta, diviene necessario considerare un significato più esteso del termine sostenibilità, oltre ad un esame più approfondito delle ripercussioni a scala ecologica conseguenti l’applicazione di soluzioni qui soltanto ipotizzate.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Nella valle del Marzeno, posta su un’altura che domina e protegge la città, si trova la rocca di Modigliana, una costruzione antica, che si configura come una preziosa occasione per poter leggere e comprendere la storia di un luogo. È infatti un delicato palinsesto, una testimonianza fisica di complesse trasformazioni storiche e sociali, accumulate nel tempo. La cittadina di Modigliana sorge in una posizione geografica di natura strategica, vicina all’attuale confine tra Emilia Romagna e Toscana, teatro di numerosi conflitti e contese politiche nel corso della storia. La rocca viene costruita alla fine del IX secolo, come torre residenziale dei Conti Guidi, una potente famiglia a cui va attribuito un ruolo politico decisivo nell’Italia centrale del medioevo. Sotto il dominio dei Guidi,durato circa quattro secoli, Modigliana diventa capitale del feudo romagnolo e la rocca un palatium, emblema del forte potere politico e militare che i conti detenevano sul territorio. Nel 1377 il Comune di Modigliana viene annesso alla Repubblica Fiorentina e la rocca subisce importanti trasformazioni, perdendo la propria funzione palaziale e acquistando quella militare difensiva, fino ad un definitivo abbondono nel XVI secolo. La rocca, definita ‘Roccaccia’ per la propria imponenza, è divenuta simbolo e identità della cittadina nella percezione collettiva locale. In seguito al crollo di una parte del mastio, la rocca presenta un suggestivo spaccato, visibile da tutto il paese, che permette di osservare l’interno dell’antica costruzione. Purtroppo la mancata attuazione di un progetto di conservazione della rocca, ha lasciato la rovina in uno stato di totale degrado, pericolosità e inaccessibilità, portandola ad un lento declino. Il progetto si pone innanzitutto l’obiettivo di conservare e valorizzare il manufatto, permettendo l’accessibilità e la fruizione della rocca, senza stravolgerne i caratteri naturali e accettando i limiti imposti dal luogo. Sfruttando i percorsi storici e gli spazi esistenti, il progetto è pensato con l’intento di rendere conoscibile la composizione delle parti del manufatto e il suo funzionamento. Queste volontà progettuali hanno portato a maturare l’idea di voler restituire alla città di Modigliana un luogo, che il degrado e l’incuria stanno rubando al tempo.
Resumo:
I gruppi risolubili sono tra gli argomenti più studiati nella storia dell'algebra, per la loro ricchezza di proprietà e di applicazioni. Questa tesi si prefigge l'obiettivo di presentare tali gruppi, in quanto argomento che esula da quelli usualmente trattati nei corsi fondamentali, ma che diventa fondamentale in altri campi di studio come la teoria delle equazioni. Il nome di tale classe di gruppi deriva infatti dalla loro correlazione con la risolubilità per formule generali delle equazioni di n-esimo grado. Si ha infatti dalla teoria di Galois che un'equazione di grado n è risolubile per radicali se e solo se il suo gruppo di Galois è risolubile. Da questo spunto di prima e grande utilità, la teoria dei gruppi risolubili ha preso una propria strada, tanto da poter caratterizzare tali gruppi senza dover passare dalla teoria di Galois. Qui viene infatti presentata la teoria dei gruppi risolubili senza far uso di tale teoria: nel primo capitolo esporrò le definizioni fondamentali necessarie per lo studio dei gruppi risolubili, la chiusura del loro insieme rispetto a sottogruppi, quozienti, estensioni e prodotti, e la loro caratterizzazione attraverso la serie derivata, oltre all'esempio più caratteristico tra i gruppi non risolubili, che è quello del gruppo simmetrico. Nel secondo capitolo sono riportati alcuni esempi e controesempi nel caso di gruppi non finiti, tra i quali vi sono il gruppo delle isometrie del piano e i gruppi liberi. Infine nel terzo capitolo viene approfondito il caso dei gruppi risolubili finiti, con alcuni esempi, come i p-gruppi, con un’analisi della risolubilità dei gruppi finiti con ordine minore o uguale a 100.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
La letteratura per l’infanzia è da molto tempo, ormai, oggetto di riscritture e traduzioni per permettere ai piccoli lettori di leggere, così come avviene per gli adulti, storie provenienti da ogni parte del mondo. La traduzione della letteratura per l’infanzia viene, però, ancora troppo spesso sottovalutata e subordinata in ordine di importanza e, soprattutto, di difficoltà alla traduzione letteraria vera e propria. L’origine di questo elaborato deriva, così, dalla mia volontà di approfondire la mia conoscenza di questo ambito della letteratura e di affrontare in prima persona tutte le sfide e le difficoltà con cui un traduttore di libri per l’infanzia è costretto a confrontarsi. Al centro del mio studio e del mio lavoro di traduzione vi è il libro per bambini Little Lou à Paris di Jean Claverie. Ciò che mi ha immediatamente colpita e affascinata di questo libro è lo stretto legame che l’autore, attraverso rapide pennellate color seppia, riesce a creare tra parole e immagini, tra ciò che viene raccontato e i tratti delicati dei disegni, ma soprattutto il modo in cui è qui rappresentato e descritto lo sguardo di un bambino sul mondo, su un mondo per lui nuovo e sconosciuto. La tesi si compone di quattro capitoli. Nel primo capitolo presenterò l’autore e la sua opera, seguirà, poi, nel secondo, un’analisi del testo di partenza e delle sue caratteristiche. Il terzo capitolo contiene la mia proposta di traduzione dell’intero libro di Jean Claverie, e infine, nel quarto ed ultimo capitolo, dopo aver illustrato i tratti principali della letteratura per l’infanzia e della sua traduzione, commenterò la mia proposta di traduzione spiegando e analizzando particolari scelte fatte nel corso del processo traduttivo.
Resumo:
Questa tesi ha come obiettivo l’analisi contrastiva della versione originale francese e di quella doppiata in italiano del film “Qu’est-ce qu’on a fait au bon Dieu”, del regista Philippe de Chauveron. Partendo da alcuni aspetti teorici spiegati nel primo capitolo, parlerò della traduzione audiovisiva e delle sue due tecniche maggiormente utilizzate, ossia doppiaggio e sottotitolaggio, oltre che ad accennare il contesto storico-sociale in cui è nata e si è sviluppata. In seguito mi concentrerò sull’analisi vera e propria del doppiaggio del film, prendendo in considerazione gli aspetti culturali di più difficile adattamento per i dialoghisti, quali il cibo, gli odonimi, il mondo dello spettacolo, l’ironia e gli aspetti extra-testuali di immagini e suoni. Infine, l’elaborato si concluderà con l’analisi degli aspetti linguistici più complessi per gli adattatori, come il dialetto, il turpiloquio e le espressioni idiomatiche, con un’attenzione particolare anche alla traduzione dei titoli.
Resumo:
Gli elementi ludici aiutano a comprendere i bisogni del mondo in cui viviamo e rendono meno noiose quelle attività che normalmente non gratificano in modo sufficiente un individuo; la gamification viene definita come l'utilizzo di elementi di gioco in contesti non di gioco. In questo elaborato viene analizzato come si è evoluto il rapporto tra essere umano e gioco, come si è arrivati a definire la gamification e quali sono le parti atomiche che la compongono. Si analizzano diversi casi di successo in cui è stata implementata la gamification ed infine viene analizzato il mio progetto personale ParcheggioGratuito, in cui applico metodologie di gamification per facilitare il meccanismo di ricerca del parcheggio nella propria città.