998 resultados para Imatge del propi cos
Resumo:
Gli avvenimenti politico-istituzionali degli ultimi anni hanno determinato un vivace dibattito sulla questione dei cc.dd. “governi del Presidente”, con cui si suole far riferimento ad Esecutivi il cui procedimento di formazione e le cui crisi registrano un interventismo del Presidente della Repubblica superiore a quello richiesto e/o consentito dal dettato costituzionale. Obiettivo dell’elaborato è duplice: fornire un tentativo definitorio della categoria “governi del Presidente”, nonché valutare la compatibilità di questa con la forma di governo parlamentare, soprattutto in considerazione dei recenti sviluppi delle dinamiche politico-istituzionali italiane. Sulla base di questo presupposto, nel presente lavoro si procede a una ricostruzione dell’evoluzione della prassi e delle consuetudini costituzionali in merito all’esercizio dei poteri presidenziali nella gestione delle crisi di governo, con particolare riferimento al procedimento di formazione dell’Esecutivo. La tesi si presenta articolata in due parti, corrispondenti a due differenti periodi storici (cc.dd. Prima e Seconda Repubblica), organizzate per capitoli, relativi alle principali fasi di evoluzione del sistema politico attraversate nel corso della storia della Repubblica. Questa scelta si giustifica in ragione del fatto che il modus operandi del Presidente della Repubblica risulta fortemente condizionato dai mutamenti del contesto politico-istituzionale. Nei singoli paragrafi, dedicati ai presidenti, vengono trattati l’elezione del Presidente, le modalità di formazione dei governi nominati, nonché ulteriori temi la cui disamina è stata ritenuta opportuna allo scopo di fornire una contestualizzazione più adeguata dell’analisi svolta (utilizzo del potere di esternazione e di scioglimento delle Camere, gestione delle attività di politica interna e politica estera, principali avvenimenti dei periodi storici considerati, e così via).
Resumo:
La tesi affronta la vita e la riflessione politica di Beatrice Potter collocandola all’interno del pensiero politico britannico ed europeo della fine dell’Ottocento e dei primi decenni del Novecento. Rispetto alla maggior parte della bibliografia disponibile, risulta un’autonomia e un’originalità anche rispetto alla riflessione del marito Sidney Webb. La riflessione politica di Potter è caratterizzata in primo luogo dalla ricerca del significato immediatamente politico di quella scienza sociale, che si sta affermando come approccio scientifico dominante nell’intero panorama europeo. Il lavoro è diviso in tre ampi capitoli così suddivisi: il primo ricostruisce l’eredità intellettuale di Potter, con particolare attenzione al rapporto con la filosofia evoluzionista di Herbert Spencer, suo mentore e amico. In questo capitolo vengono anche discussi i contributi di John Stuart Mill, Joseph Chamberlain, Alfred Marshall e Karl Marx e la loro influenza sull’opera di Potter. Il secondo capitolo prende in esame la sua opera prima dell’incontro con il marito e mostra come lo studio della povertà, del lavoro, della metropoli, della cooperazione e delle condizioni delle donne getti le basi di tutta la produzione successiva della partnership. Lo studio politico della povertà, cioè la messa a punto di una scienza amministrativa del carattere sociale del lavoro, rappresenta uno degli elementi principali di quella che viene qui definita un’epistemologia della democrazia. Il terzo capitolo riprende il tema cruciale della democrazia nella sua accezione «industriale» e indaga il ruolo funzionale dello Stato, anche in relazione alla teoria pluralista di Harold Laski, al socialismo guildista di George D. H. Cole e all’idealismo di Bernard Bosanquet. Centrale in questo confronto del pensiero di Potter con il più ampio dibattito degli anni venti e trenta sulla sovranità è la concezione della decadenza della civiltà capitalista e dell’emergere di una new civilisation, dopo la conversione al comunismo sovietico.
Resumo:
L’oggetto della ricerca è stato il processo di creazione del distretto del Comune di Reggio Emilia tra il XII e l’inizio del XIII secolo, di cui sono stati analizzati diversi aspetti salienti, così come emergono in primo luogo dall’analisi del liber iurium reggiano, il Liber grossus antiquus. L’elaborato è suddiviso in due parti. Nella prima parte si è cercato di ricostruire le vicende, i legami e il patrimonio delle famiglie rurali reggiane nel corso del XII secolo in particolare e gli aspetti caratteristici del Comune cittadino nella sua fase iniziale. Nella seconda parte ci si è concentrati sull’analisi dei caratteri più rilevanti del processo di creazione del distretto comunale reggiano: il rapporto tra i signori del contado, i Comuni rurali e il Comune urbano; la difesa e l’incremento dei Communia cittadini; la fondazione di borghi franchi e nuovi. Il Comune di Reggio Emilia tentò di annettere l’intero territorio diocesano al distretto cittadino, non riuscendoci completamente e adottando una politica territoriale diversificata a seconda dei caratteri delle zone controllate.
Resumo:
Con questa tesi ho voluto mettere insieme delle nozioni oggi basilari per chiunque voglia avere un quadro globale del geomagnetismo cercando di essere il più chiaro e esplicativo possibile nell'esposizione sia dal punto di vista matematico che linguistico. Non è stato, comunque, possibile affrontare in soli tre capitoli di tesi tutte le problematiche inerenti a una disciplina così ricca di informazioni e che si è evoluta in modo così rapido negli ultimi anni. La tesi inizia con un'introduzione storica sul magnetismo per passare, attraverso un quadro generale di elettromagnetismo e le equazioni fondamentali di Maxwell, a una descrizione del campo magnetico terrestre e delle sue variazioni spaziotemporali accompagnate da una descrizione dei fenomeni elettrici in atmosfera più importanti del nostro pianeta. Segue poi, nel secondo capitolo, una breve presentazione delle teorie sull'origine del campo e successivamente, tramite la magnetoidrodinamica, si passa alla teoria della dinamo ad autoeccitazione il cui funzionamento è preso come modello, fino ad oggi considerato il più valido, per spiegare le origini del campo magnetico terrestre. Infine, nel terzo ed ultimo capitolo, si parla del rapporto del campo magnetico terrestre con le rocce terrestri che introduce un approfondimento generale sul paleomagnetismo ossia del campo magnetico nel passato e che ruolo svolge nell'ambito della tettonica a placche.
Resumo:
Questa argomentazione tratta la traduzione e l'adattamento spagnolo del musical The Lion King. In primo luogo viene data una descrizione di che cos'è un musical, quali sono le sue origini, quali tematiche vengono affrontate e da quali numeri è composto lo spettacolo. Viene poi introdotto The Lion King con una breve descrizione del film per poi passare al "making of" del musical, abbiamo quindi una breve descrizione di scene, costumi e maschere. La terza parte è dedicata alla traduzione per la scena: vengono identificate le problematiche maggiori di questo campo della traduzione, si analizzano performability, speakability e soprattutto la singability, la caratteristica principale da tenere a mente quando si traduce un musical anche se spesso non gli viene attribuita l'importanza che merita. Viene poi introdotta la traduzione spagnola de El Rey León e del suo traduttore, Jordi Galcerán, di cui viene descritta una breve biografia in quanto il discorso è incentrato soprattutto nella sua esperienza di traduzione. L'ultima parte è l'analisi delle canzoni. Sono state selezionate sette canzoni di cui sono state analizzate nel dettaglio un minimo di due a un massimo di tre strofe. Ognuna di esse è affiancata dalla versione originale inglese in modo da avere subito chiare quali sono le differenze principali.
Resumo:
Questa tesi si propone di ripensare una parte della città di Bogotà, dopo un’attenta analisi del suo sviluppo storico ed evolutivo. L’intento è sia quello di contrastare lo sprawl urbano e gli effetti negativi che esso produce, sia quello di migliorare la vivibilità delle città, tentando di limitare i problemi della città diffusa. In particolare, studiando i piani urbanistici e il loro concretizzarsi all’interno della città, si sono volute dare soluzioni al crescente bisogno di alloggi, causato dall’aumento di popolazione. L’attenzione si è quindi focalizzata sull’area nord, in cui il carattere urbano è più debole e fortemente frammentato dal passaggio dell’attuale autopista Norte, infrastruttura che separa e divide due parti della città e che il progetto vuole provare a ricollegare dal punto di vista identitario. L’idea del masterplan è stata studiata riferendosi al piano pilota di Le Corbusier e più nello specifico alla sua teoria del settore che prevedeva all’interno di ogni quartiere strutturato da una griglia precisa di strade, differenti funzioni, che il maestro chiama categorie fondamentali dell’urbanistica: abitare, lavorare, circolare e coltivare il corpo e lo spirito; è proprio in relazione a quest’ultima categoria che si è pensato di progettare un nuovo polo accentratore per Bogotá legato alle arti, prevedendo una riconnessione con il centro attraverso, soprattutto, un sistema di aree verdi e pubbliche strutturate a formare un sistema gerarchico di parchi, che vede l’autopista come asse principale di sviluppo. La scelta di progettare un edificio con una vocazione pubblica importante è stata dettata dalla volontà di dislocare in un quartiere meno centrale un nuovo polo attrattore per gli abitanti di tutta la città, in questo modo si è cercato di valorizzare il settore nord, fino ad oggi così marginale e periferico.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
Il Cloud Computing è una realtà sempre più diffusa e discussa nel nostro periodo storico, ma probabilmente non è ancora chiaro a tutti di cosa si tratta e le potenzialità che possiede. Infatti, non esiste ancora una definizione univoca e condivisa e questo può creare confusione. Oggi le grandi compagnie nella comunità informatica spingono sempre di più per affermare i servizi Cloud a livello mondiale, non solo per le aziende del settore, ma anche per tutte le altre. Ed è così che le aziende di tutto il mondo si muovono per imparare e adottare questa nuova tecnologia, per spostare i loro centri dati e le loro applicazioni nel Cloud. Ma dove e quando nasce il Cloud Computing? Quali sono realmente i benefici per le aziende che adottano questa tecnologia? Questo è l'obiettivo della mia tesi: cercare di far chiarezza sulla sua definizione, indagare sulla sua nascita e fare un quadro economico del suo sviluppo, analizzando i benefici per le aziende e le opportunità offerte. Come caso di studio ho scelto la piattaforma Cloud Foundry perchè in questo momento è in forte espansione e sta facendo un grosso lavoro per cercare di rendere il suo prodotto uno standard per il Cloud Computing. Come esempio particolare di piattaforma basata su Cloud Foundry si parlerà di Bluemix, la piattaforma Cloud offerta da IBM, una delle più grandi aziende nel settore informatico.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Wanderlust, tradotto in italiano con il titolo Giramondo, è uno dei romanzi della famosa autrice americana Danielle Steel nel quale viene raccontata la storia di una giovane donna che decide di seguire il suo forte impulso di viaggiare e di partire per un viaggio oltre oceano. Wanderlust, parola di origine tedesca, oggi significa “forte desiderio o impulso a viaggiare”(Duden Wörterbuch:online) e deriva dal verbo tedesco wandern. Il verbo wandern ha in Germania un importante ruolo sia a livello storico-politico che culturale, tale da rendere difficile la ricerca di un termine equivalente nelle altre lingue, italiano compreso. Il termine, figlio dell’epoca illuminista e romantica indicava in origine un’attività che implicava un “andare a piedi nella natura” ed era “simbolo di un nuovo rapporto dell’individuo con la natura” (Dizionario Zanichelli Tedesco-Italiano). Il Wandern, sviluppatosi nel tempo in ambito politico e soprattutto formativo, contiene nella sua definizione più antica elementi importanti come l’incontro con ciò che è sconosciuto, il rapporto tra corpo anima e natura, la formazione attraverso l’esperienza pratica e il viaggiare inteso come un camminare senza una meta. La Wanderlust dovrebbe quindi essere definita come un forte desiderio o impulso a vagare per imparare, per andare incontro a ciò che è sconosciuto ma, così come il verbo wandern, ha acquistato in uso moderno il significato di viaggiare come attività del tempo libero ed è spesso collegato a situazioni di svago e relax quali le vacanze.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Lo scopo di questo lavoro è capire come funzionasse la mediazione linguistica tra popoli di continenti diversi e lontani. L’elaborato finale si sviluppa in quattro macrocapitoli. Nel primo parlerò della comunicazione e della mediazione in senso generale e cercherò di fornirne una panoramica a tinte storiche e sociali. Nel secondo accennerò alla figura del mediatore culturale dal punto di vista storico e la analizzerò in un contesto preciso: la colonizzazione delle Americhe da parte degli europei, nei secoli XVI e XVII. Il terzo macrocapitolo introduce due personaggi chiave (Gerónimo de Aguilar e Gonzalo Guerrero) che legano la mediazione di epoca coloniale alla figura de La Malinche e pertanto questo funge da ponte tra il secondo ed il quarto. Nell'ultimo macrocapitolo proverò a raccontare la storia de La Malinche, l'interprete personale del conquistador spagnolo Hernán Cortés, durante la colonizzazione della penisola dello Yucatán, in Messico. Le conclusioni alle quali sono giunto coincidono con le risposte concrete al mio quesito su come funzionasse la mediazione linguistica nel mondo antico. In particolare ho individuato alcune vie principali attraverso le quali è nata la figura del mediatore-interprete. Nello specifico, queste vie sono: l'intreccio amoroso tra conquistatori e donne indigene; lo studio delle lingue native da parte degli ecclesiasti; il rapimento di giovani indigeni o lo scambio di giovani tra europei e nativi così che apprendessero la lingua degli altri e viceversa; lo sfruttamento di schiavi o servi che avevano appreso la lingua tramite la cosiddetta “immersione”; l'inserimento in tribù indigene di giovani avventurieri europei i quali imparavano la lingua per immersione; il caso.