908 resultados para il business del riciclo
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
Il tema del presente elaborato è la traduzione in ambito teatrale. Il lavoro si basa sulla proposta di traduzione dal tedesco all’italiano di un estratto del dramma Schlußchor di Botho Strauß. La prima parte della tesi si concentra sull’autore e sull’analisi del testo di partenza. La seconda parte contiene il commento alla traduzione in cui si individuano le caratteristiche del testo teatrale, i principi fondamentali che hanno determinato le scelte traduttive e le difficoltà incontrate nel tradurre il testo, con le rispettive strategie adottate. L’elaborato è preceduto da un’introduzione con le motivazioni della scelta dell’argomento e seguito dalle riflessioni finali inserite nella conclusione
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
Questo elaborato concerne la revisione della letteratura scientifica relativa alla teorizzazione e realizzazione tecnologica del memristor, un nuovo componente elettronico teorizzato nel 1971 e realizzato solo nel 2008 nei laboratori della HP (Hewlett Packard, Palo Alto, California). Dopo una descrizione in termini matematici della teoria fisica alla base del dispositivo e del suo funzionamento, viene descritta la sua realizzazione tecnologica e il corrispettivo modello teorico. Succesivamente il lavoro discute la possibile analogia tra il funzionamento del memristor ed il funzionamento di neuroni e sinapsi biologiche all'interno del Sistema Nervoso Centrale. Infine, vengono descritte le architetture recentemente proposte per l'implementazione di reti neurali artificiali fondate su un sistema computazionale parallelo e realizzate mediante sistemi ibridi transistors/memristors.
Resumo:
I materiali compositi rivestono un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche. La possibilità di progettare i materiali in funzione della loro applicazione permette una crescente diffusione del loro utilizzo, e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. Nonostante la quantità di studi sul comportamento a fatica dei compositi, non sono ancora presenti risultati attendibili per la previsione della resistenza e della vita a fatica in relazione ad un determinato tipo di sollecitazione; non almeno a livello dei materiali tradizionali. L’obiettivo della tesi è indagare eventuali variazioni del comportamento a fatica di un laminato in CFRP in relazione al variare di parametri quali dimensioni e sequenza di impilamento delle ply. Per tale scopo sono state realizzate delle prove per il calcolo del comportamento a fatica, in particolare prove di flessione in 3 punti, e si sono poi confrontati tra loro i risultati sperimentali e correlati al variare dei parametri di interesse.
Resumo:
ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto
Resumo:
Il seguente elaborato prende le mosse da un progetto, denominato Nutrid’Uva, promosso e attivamente concretizzato dall’azienda bresciana “Cascina Belmonte” di concerto con il laboratorio del Campus di Scienze Alimentari di Cesena (Università di Bologna). In particolare, si è voluta sperimentare l’applicazione di processi innovativi per la produzione di succo d’uva bio e bevande a base di succo d’uva bio proveniente da uve biologiche coltivate nell’areale della Valténesi (sponda occidentale del Garda), stabilizzati mediante l’uso di alte pressioni idrostatiche e senza trattamento termico. In questi termini, il presente lavoro ha l’obiettivo di: delineare il quadro generale in cui si inserisce il progetto, arricchendolo con spunti tratti dalle pratiche di processo seguite in loco; determinare il contenuto delle classi polifenoliche presenti nei campioni di alcuni succhi sottoposti a differenti tecnologie di macerazione in confronto all’abituale processo di lavorazione aziendale (vitigni ibridi diretti produttori, Barbera, Merlot, Cabernet). Si è proceduto dunque attraverso l’analisi spettrofotometrica delle principali classi di composti fenolici e dell’attività antiossidante.
Resumo:
Il Massiccio del Cansiglio-Monte Cavallo costituisce uno dei maggiori complessi carsici italiani; con questo lavoro si cerca di fornirne una caratterizzazione idrogeologica sulla quale poter basare una futura prova di tracciamento multiplo, al fine di definirne con precisione la configurazione interna. Lo studio è incentrato sul monitoraggio in continuo di portate, temperature e conducibilità elettrica compensata a 25 °C delle tre sorgenti maggiori del fiume Livenza, che sgorgano alla base del Massiccio, e su un monitoraggio idrochimico discontinuo di nove sorgenti (tra cui figurano anche le tre principali) e di quattro grotte rappresentanti le aree di infiltrazione concentrata. L’enorme volume d’acqua contenuto in questo grande acquifero carsico sembra riversarsi quasi completamente nelle aree sorgive situate al margine occidentale della pianura friulana, che cinge il lato orientale del Massiccio. In linea generale, queste acque, tipicamente carbonatiche, non hanno tempi di residenza lunghi all’interno del bacino di provenienza e fluiscono con portate elevate (> 1 m3/s) da ognuna delle tre sorgenti maggiori; nel periodo estivo (luglio-agosto) si registra una fase di svuotamento, assai accentuata al Gorgazzo, sorgente, tra le tre, posta più a nord. Molinetto, situata più a sud, pare differenziarsi maggiormente dalle altre due grandi sorgenti, Santissima e Gorgazzo, mentre le sorgenti minori sembrano, al di là di alcune caratteristiche peculiari, abbastanza simili tra loro. In particolare, il Molinetto mostra, in risposta agli eventi meteorici intensi, un incremento di portata meno netto, accompagnato da un evidente fenomeno di pistonaggio, almeno durante il periodo di morbida. Al contrario, il Gorgazzo risponde immediatamente alle forti precipitazioni piovose e le acque di pioggia viaggiano rapidamente dalla zona di infiltrazione alla sorgente stessa. La Santissima, sorgente con valori medi di portata maggiori e valori di conducibilità elettrica e temperatura mediamente inferiori alle altre, sembra dipendere da un sistema con caratteristiche intermedie tra quelle delle due sorgenti adiacenti. Emerge la complessità di questo vasto sistema carsico che sembra mostrare un grado di carsificazione in aumento da sud-ovest a nord-est. Sulla base dei dati raccolti si suppone che al suo interno possano svilupparsi due sottosistemi: il primo sembra che riversi la sua riserva idrica nelle sorgenti Molinetto e Santissima, il secondo accomuna invece la Santissima con il Gorgazzo, il quale ne costituisce un “troppo pieno”.
Resumo:
Scopo di questo lavoro di tesi è la revisione della legislazione in materia di dispositivi medici nel mercato europeo, facendone un confronto con la normativa extra-europea. In particolare si sono studiate ed analizzate anche le regolamentazioni degli Stati Uniti e del Giappone, che insieme a quella dell’Unione Europea, rappresentano attualmente i tre maggiori mercati mondiali di dispositivi medici. L’obiettivo quindi è stato la ricerca, lo studio e l’analisi critica dei vari sistemi legislativi in vigore, la loro evoluzione e le prospettive future. Considerando il punto di vista del fabbricante di dispositivi medici, si sono illustrati percorsi normativi per poter immettere sul mercato un nuovo dispositivo medico nell’Unione Europea, negli Stati Uniti e in Giappone, evidenziando le procedure da seguire, le modalità di commercializzazione nei tre mercati, le certificazioni richieste, facendone un’analisi comparativa di un mercato rispetto agli altri. Sempre nella stessa ottica, si è inoltre effettuata una sintetica analisi del mercato dei dispositivi medici nei paesi emergenti, in quanto sono già, e lo diventeranno sempre più, una risorsa importante per una azienda con una visione internazionale del mercato. In questo elaborato di tesi sono stati ampiamente descritti ed analizzati i diversi sistemi di regolamentazione dei dispositivi medici e si è effettuata una valutazione comparativa tra i diversi sistemi legislativi e normativi che condizionano il mercato dei dispositivi medici. Un fabbricante con una visione internazionale della propria azienda deve conoscere perfettamente le legislazioni vigenti in materia di dispositivi medici. Per l'impresa, la conoscenza e la pratica della norma è indispensabile ma, ancor più, l'informazione e la consapevolezza dell'evoluzione della norma è determinante per la crescita competitiva. Il business mondiale dei dispositivi medici infatti ha subito profondi cambiamenti, con l'introduzione nei diversi paesi di complesse procedure di certificazione e autorizzazione, che sono in continua evoluzione. Tutto questo richiede una dimestichezza con le norme di settore e un continuo aggiornamento tecnico-normativo: sono indispensabili per le imprese competenze adeguate, in grado di affrontare tematiche tecnico-scientifiche e di adempiere a quanto prevedono le norme nazionali ed internazionali. Comprendere le opportunità, conoscere le regole e le barriere per l'ingresso in un determinato mercato, è sempre più importante per le imprese interessate ai processi di internazionalizzazione. Per meglio comprendere un mercato/paese, occorre la conoscenza dei peculiari aspetti regolatori, ma anche la conoscenza della specifica cultura, tradizione, società. In questo quadro, conoscere e praticare le norme non è sufficiente, sapere come evolvono le norme e le regole è per le imprese un fattore determinante per la competitività.
Resumo:
Per molto tempo le risorse di acque sotterranee e quelle di acque superficiali sono state considerate e gestite come due entità a sé stanti; in realtà questi due corpi d’acqua rappresentano le componenti di un’unica risorsa: qualsiasi genere di impatto su una delle due andrà ad influire inevitabilmente sulla quantità o sulla qualità dell’altra. Lo scopo di questa tesi è quello di comprendere che grado di interazione esiste tra i Fiumi Uniti e l’acquifero costiero ravennate mediante due approcci distinti: (1) con l’analisi di profili termici teorici e ottenuti dal monitoraggio di misure termometriche in quattro piezometri, si intende ottenere informazioni riguardanti i flussi idrici sotterranei, (2) con la modellazione numerica dell’area nei pressi dei Fiumi Uniti (mediante Processing Modflow) è possibile ottenere una stima dei flussi sotterranei dal fiume verso l’acquifero nella zona di riferimento. Inoltre durante il monitoraggio del mese di settembre 2015 è stato installato un diver, ad una profondità di -7,4 m, in uno dei piezometri per ottenere un monitoraggio continuo per tutto il mese di ottobre. I dati termici rilevati in campo hanno permesso di confermare l’esistenza di un’importante interazione tra i corsi d’acqua presi in esame e l’acquifero costiero ravennate, testimoniato dall’ampia variazione di temperatura negli strati più superficiali. Inoltre tra il 10 e l’11 ottobre è stata registrata un’anomalia termica causata da un flusso orizzontale di acqua più calda in prossimità del piezometro proveniente dai Fiumi Uniti mediante trasporto per avvezione: tale anomalia viene registrata circa 2 giorni dopo una piena dei Fiumi Uniti. Grazie alla modellazione numerica è stato possibile confermare le tempistiche con cui l’acqua percorre la distanza tra il fiume e il piezometro preso in considerazione.
Resumo:
Opera di recente pubblicazione, "The Story of Kullervo" è il racconto che più di tutti mostra l'esistenza di un profondo legame tra J. R. R. Tolkien e la lingua e cultura finlandese. Scopo di questo elaborato è quello di analizzare soprattutto il rapporto tra l'autore e il poema epico finlandese, il Kalevala, proponendo la traduzione della storia. L'elaborato è strutturato nel seguente modo: nel primo paragrafo viene trattato il Kalevala come opera letteraria e come fonte di ispirazione per Tolkien. Nel secondo paragrafo viene analizzato il testo del racconto in quanto testo letterario e nel terzo vengono commentate le scelte traduttive effettuate.
Resumo:
Il presente lavoro si prefigge l’obiettivo di dimostrare che, per essere considerata completa, la formazione di un interprete deve comprendere, oltre all’insegnamento delle competenze traduttive e linguistiche, anche un percorso volto a migliorare le abilità comunicative degli studenti attraverso l’apprendimento delle tecniche di presentazione orale. Si è deciso di prestare particolare attenzione all’interpretazione consecutiva vista la sua dimensione di azione in pubblico. La presenza fisica di un interprete di consecutiva fa sì che la comunicazione avvenga su due piani paralleli: quello verbale e quello non-verbale. Per questo, un interprete professionista, e quindi uno studente, deve imparare a trasferire il contenuto del messaggio in modo fedele e corretto, sul piano linguistico, ma deve anche imparare ad esprimersi con chiarezza, con una voce ben impostata e ben modulata, con una adeguata velocità di eloquio, prestando attenzione alla dizione, alla fonetica, al contatto visivo con il pubblico, alle espressioni del viso, alla postura e alla gestualità. Per dimostrare l’importanza delle tecniche di presentazione orale nella formazione degli interpreti, si è deciso di iniziare stabilendo i presupposti teorici della professione e descrivendo il lavoro e il ruolo dell’interprete all’interno dell’evento comunicativo della conferenza (capitolo I). Nel capitolo II si è quindi definito il gesto, descrivendo le teorie sulla sua origine cognitiva e funzionale, trattando la letteratura sulle classificazioni delle tipologie gestuali e illustrando uno studio sulle variazioni geografiche dei gesti e uno sulla possibile creazione di un dizionario dei gesti italiani. Infine, il capitolo terzo è stato dedicato alla descrizione delle tecniche e degli aspetti legati alla presentazione orale e il capitolo quarto all’applicazione pratica dei consigli illustrati, attraverso l’uso di materiale di supporto di conferenze interpretate e videoregistrate.
Resumo:
Il presente lavoro si inquadra all'interno di un progetto avviato dal Laboratorio di Terminologia e Traduzione Assistita, del Dipartimento di Interpretazione e Traduzione dell'Università di Bologna. L'obiettivo ultimo del progetto è lo sviluppo di risorse terminologiche pensate e adeguate a soddisfare le esigenze della figura dell'interprete professionista e dell'interprete in formazione. Ne consegue la volontà di creare un database multimediale multilingue che vada a comprendere non solo i linguaggi specialistici (la cosiddetta terminologia di dominio) ma anche e soprattutto quegli elementi della terminologia di genere che compongono e che sono trasversali a tutte le lingue naturali: nessi, locuzioni, segnali discorsivi e via dicendo. In particolare, questa tesi si è incentrata sullo studio di una categoria della terminologia di genere appositamente sviluppata per gli interpreti dal Laboratorio di Terminologia: i "verbi chiave", ovvero quelli che ricorrono con più frequenza nei testi orali di discorsi tenuti in pubblico. Per ogni "`verbo chiave"' analizzato è stata dedicata una scheda terminologica, che è stata adattata e concepita per due tipi di utenti: l'interprete in formazione e l'interprete professionista. Al momento attuale, quindi, le venticinque schede proposte si prestano come strumento per migliorare le competenze passive dello studente di interpretazione, grazie anche all'inserimento di proposte di sinonimi cross-categoriali, e al contempo cercano di proporsi anche come strumento di lavoro per l'interprete professionista, soprattutto in fase di preparazione ad un evento. Le schede sono state elaborate a partire da un corpus di riferimento contenente i resoconti stenografici di cinquanta sedute dell'Assemblea parlamentare. Questa tesi contribuisce allo sviluppo del progetto del Laboratorio lasciando tuttavia spazio a successive integrazioni, per cui rappresenta solo un primo passo verso il completamento del progetto stesso.
Resumo:
Questa tesi presenta i risultati di un case-study condotto presso la scuola primaria G. Marconi e la scuola secondaria di I grado G. Diotti di Casalmaggiore (CR), volto ad indagare sul fenomeno della mediazione linguistica ad opera di bambini che, nel panorama moderno caratterizzato da una presenza straniera in continuo aumento, risulta una delle soluzioni più accessibili ai migranti per garantirsi un supporto linguistico che permetta l’accesso ai servizi pubblici fondamentali. La prima parte del testo costituisce un quadro teorico che consente di comprendere meglio gli obiettivi e i risultati dell’indagine condotta. Il primo capitolo si concentra sul rapporto immigrazione-scuola analizzando la situazione attuale, illustrando le caratteristiche e le esigenze della popolazione scolastica straniera ed esaminando le proposte ministeriali in materia di integrazione e accoglienza. Il secondo capitolo, invece, sposta l’attenzione sulla mediazione linguistica e culturale in Italia. Nello specifico viene dapprima approfondita la mediazione professionale facendo riferimento al quadro normativo e alle competenze specifiche del mediatore linguistico e culturale. In un secondo momento, viene introdotto il fenomeno della mediazione non professionale e viene illustrata la letteratura inerente. Da ultimo viene introdotto il tema del Child Language Brokering (CLB), ovvero il fenomeno della mediazione ad opera di minori. Partendo da una panoramica generale viene studiato lo sviluppo del CLB come oggetto di ricerca e ne vengono valutati aspetti positivi e negativi, soffermandosi in particolare sul contesto scolastico. Gli ultimi due capitoli, invece, sono dedicati alla parte operativa del lavoro di ricerca. Nel terzo capitolo viene presentato in maniera dettagliata il case-study analizzando la metodologia applicata, il campione selezionato e l’elaborazione dei questionari realizzati per la raccolta dei dati. Infine, nel quarto capitolo, sono esaminati i dati raccolti sul campo. Sulla base dei risultati ottenuti viene dapprima delineato il profilo del fenomeno in ciascuna delle scuole campione per poi mettere a confronto le tendenze generali emerse.
Resumo:
L' elaborato è di analizzare la complessa realtà che circonda il mondo della comunicazione e, in particolare, quello dei mezzi di comunicazione di massa, dalle origini fino ai giorni nostri, con uno sguardo anche al futuro. Successivamente ci si sposta ad approfondire il campo del doppiaggio.