334 resultados para moderni eurooppalainen sivilisaatio
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.
Resumo:
Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.
Resumo:
Il lavoro presenta le ricerche svolte ed i risultati ottenuti per consentire alle persone non vedenti lo studio quanto più autonomo del greco antico tramite sintesi vocale. Una introduzione storica ripercorre la prima vicenda professionale dell'esercizio della professione docente delle lettere classiche da parte di un soggetto privo di vista, mentre il riferimento alla legislazione contemporanea tenta di disegnare una cornice capace dei più moderni approdi supportati dalle tecnologie informatiche. La Tesi illustra infine il funzionamento dei vari dispositivi prodotti, mentre una importante appendice ripercorre le pubblicazioni via via curate dal Gruppo di Studio, accogliendo infine le trascrizioni dei codici di programmazione delle sintesi vocali realizzate. Essa affida così all'Università la prosecuzione delle ricerche delineando ulteriori ipotesi di sviluppo.
Resumo:
Ravenna è una città che porta nel suo costruito le tracce di un vissuto antico e moderno. Questo rapporto, di simbiosi o di contrasto, è direttamente leggibile nelle architetture del centro storico e nel rapporto fra edifici antichi ed edifici moderni. Questo rapporto diventa più complesso quando il resto archeologico, come nel caso del Palazzo di Teoderico, si trova a dover dialogare con la città che gli è cresciuta sopra e intorno. Fra archeologia e città si crea un rapporto spesso conflittuale che deve divenire sinergico. Il momento conoscitivo dello scavo si deve trasformare in un momento di valorizzazione della città. I resti archeologici sono come un taglio nel ventre della storia della città, un grande scavo urbano che, portato alla luce, ha bisogno di essere inquadrato in un progetto urbano. Ravenna necessita quindi di un progetto che faccia di tutte queste centralità un polo di attrazione, di vita, di scambio, di integrazione e conoscenza. La salvaguardia del bene archeologico deve divenire parte di un progetto più complessivo, di attenzione alla qualità del vivere, rispetto alla quale l’archeologia deve saper conciliare la salvaguardia con gli interessi più generali della collettività. L’intervento di creazione del Parco Archeologico del Palazzo di Teoderico, che ingloba al suo interno anche la Basilica di Sant’Apollinare Nuovo e la chiesa di San Salvatore ad Calchi, deve diventare momento di valorizzazione dell’intera città.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
Il presente lavoro di ricerca si propone di discutere il contributo che l’analisi dell’evoluzione storica del pensiero politico occidentale e non occidentale riveste nel percorso intellettuale compiuto dai fondatori della teoria contemporanea dell’approccio delle capacità, fondata e sistematizzata nei suoi contorni speculativi a partire dagli anni Ottanta dal lavoro congiunto dell’economista indiano Amartya Sen e della filosofa dell’Università di Chicago Martha Nussbaum. Ci si ripropone di dare conto del radicamento filosofico-politico del lavoro intellettuale di Amartya Sen, le cui concezioni economico-politiche non hanno mai rinunciato ad una profonda sensibilità di carattere etico, così come dei principali filoni intorno ai quali si è imbastita la versione nussbaumiana dell’approccio delle capacità a partire dalla sua ascendenza filosofica classica in cui assume una particolare primazia il sistema etico-politico di Aristotele. Il pensiero politico moderno, osservato sotto il prisma della riflessione sulla filosofia della formazione che per Sen e Nussbaum rappresenta la “chiave di volta” per la fioritura delle altre capacità individuali, si organizzerà intorno a tre principali indirizzi teorici: l’emergenza dei diritti positivi e sociali, il dibattito sulla natura della consociazione nell’ambito della dottrina contrattualista e la stessa discussione sui caratteri delle politiche formative. La sensibilità che Sen e Nussbaum mostrano nei confronti dell’evoluzione del pensiero razionalista nel subcontinente che passa attraverso teorici antichi (Kautylia e Ashoka) e moderni (Gandhi e Tagore) segna il tentativo operato dai teorici dell’approccio delle capacità di contrastare concezioni politiche contemporanee fondate sul culturalismo e l’essenzialismo nell’interpretare lo sviluppo delle tradizioni culturali umane (tra esse il multiculturalismo, il comunitarismo, il neorealismo politico e la teoria dei c.d. “valori asiatici”) attraverso la presa di coscienza di un corredo valoriale incentrato intorno al ragionamento rintracciabile (ancorché in maniera sporadica e “parallela”) altresì nelle tradizioni culturali e politiche non occidentali.
Resumo:
L'affermarsi della teoria della « imaginative geography » di Edward Saïd (Orientalism, 1978), nell'arco degli ultimi trent'anni, ha imposto un orientamento prettamente sociopolitico, gramsciano e foucaultiano alla critica del testo, proponendo un'unica soluzione interpretativa per un corpus eterogeneo di testi (scientifici e artistici, antichi e moderni) accomunati dal fatto di « rappresentare l'Oriente ». La costruzione europea dello spazio orientale, dice Saïd, non rappresenta solo un misconoscimento dell'Altro, ma una sua rappresentazione tendenziosa e finalizzata a sostenere la macchina dell'imperialismo occidentale. In particolare, la rappresentazione « femminilizzata » della geografia orientale (come luogo dell'exploit del maschio bianco) preparebbe e accompagnerebbe l'impresa di assoggettamento politico e di sfruttamento economico dei paesi ad Est dell'Europa. Se Orientalism ha conosciuto fortune alterne dall'anno della sua apparizione, negli ultimi anni una vera e propria corrente anti-saidiana ha preso forza, soprattutto in ambito francese. Attraverso l'analisi di circa trenta opere francesi, belga, inglesi e italiane del Novecento, questa tesi cerca di visualizzare i limiti teorici della prospettiva saidiana rivolgendosi a un esame della rappresentazione dello spazio urbano indiano nella letteratura europea contemporanea. Nello specifico, uno studio delle nuove strutture e dei nuovi modelli della femminilizzazione dello spazio orientale indiano cercherà di completare – superandolo in direzione di un « post-orientalismo » – il riduzionismo della prospettiva saidiana.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
Questa tesi ha per argomento l'analisi linguistica della traduzione italiana del Treatise of electricity di Tiberio Cavallo (1777) ad opera di Ferdinando Fossi – Trattato completo d'elettricità – (1779). Con questo studio, che prende in esame un particolare episodio letterario, si è inteso esaminare un momento della storia del lessico scientifico italiano al fine di individuarne le peculiarità e sottolinearne le differenze rispetto ai corrispettivi di altre lingue, con speciale attenzione alla lingua inglese. I capitoli introduttivi riportano notizie biografiche e sulla formazione di T. Cavallo e F. Fossi. Nel terzo capitolo viene delineato un quadro della formazione e costituzione del lessico elettrologico italiano, seguendone l'evoluzione nel cinquantennio '40/'90 del XVIII secolo. Una parte della tesi è poi dedicata al fenomeno culturale rappresentato dalle scienze elettriche in cui si inscrive la traduzione del Treatise. Sono qui riportate notizie relative alla fortuna mondana dell'elettricità, per le quali si è attinto a carteggi, documenti d'archivio, testi antichi e studi moderni. L'analisi linguistica vera e propria si è basata sul confronto tra il testo originale di Tiberio Cavallo e la traduzione di Ferdinando Fossi. Partendo dal Treatise abbiamo isolato particolari gruppi di parole: 1) voci corrispondenti a termini propri dei fenomeni elettrici; 2) verbi; 3) strumenti scientifici. Per ognuna della voci abbiamo controllato la ricorsività; poi abbiamo cercato i traducenti corrispondenti, suddividendoli in “corrispondenze assolute” – il traducente è corrispettivo del termine originale –, “corrispondenze mancate” – variazioni nella traduzione di termini ripetuti costantemente –, “tendenza omologatrice” – traduzione univoca di termini semanticamente simili –. Un capitolo sulla lettura critica della traduzione spiega come da parte del Fossi si sia rilevata una sostanziale e sistematica assenza di sensibilità per la precisione terminologica che caratterizza il testo di Cavallo; ove si dimostra che il testo inglese insiste sulla ripetizione dei termini – già stabilizzati e facenti parte di un corpus omogeneo e condiviso –, mentre il testo italiano predilige il ricorso alla "variatio", ricercando una migliore resa stilistica d'insieme piuttosto che la precisione scientifica. Il momento storico-linguistico preso in esame attraverso il particolare caso della traduzione del Treatise vede la lingua italiana sprovvista di una lessico elettrico univoco e condiviso. Complici di questa mancata corrispondenza alle esigenze del linguaggio scientifico moderno sono certamente pregiudizi di ordine retorico, che esaltano l'importanza dello stile e alimentano il disprezzo per i tecnicismi, ma anche e soprattutto la diffusione di traduzioni eterogenee, che danno atto ad una moltiplicazione semantica dei termini realmente in grado di ritardare la formazione di un corpus lessicale condiviso dalla comunità scientifica italiana.