999 resultados para sistemi di numerazione storia della matematica matematica ricreativa, frattali


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti. Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati. Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti. Questo lavoro di Tesi attua un confronto tra le MF a 0di galassie simulate con i modelli teorici, per capire a quali redshift, a quali masse e per quali sottocampioni di galassie la riproduzione dei dati avviene in maniera migliore e dove invece risiedono i maggiori problemi. Si vede come le funzioni di massa cambino al variare del tasso di formazione stellare nei modelli e le differenze che vi sono nella loro distribuzione in base a colore e SFR. Infine si studia come varia col redshift la densità numerica delle galassie quiescenti osservate e teoriche di diversa massa. Anche questo tipo di confronto ha come scopo quello di sondare le differenze tra modelli ed osservazioni su quali siano le modalità e le tempistiche di evoluzione delle galassie a seconda della loro massa e su cosa sia quello che, dai modelli, costruiti sulla base dei processi fisici che conosciamo, non riesce ancora ad essere riprodotto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si trattano alcune delle proprietà dei coefficienti binomiali, il cui nome deriva dal fatto che uno dei principali utilizzi di tali coefficienti è proprio nel Teorema binomiale di Newton, che permette di calcolare in modo esplicito lo sviluppo di un generico binomio con esponente naturale. I coefficienti binomiali si ricavano anche dal noto Triangolo di Tartaglia, che prende nome dal matematico Niccolò Fontana (1490-1557), il quale lo introdusse in Italia nel 1556 nella sua opera "General trattato di numeri et misure". Tuttavia, esso era già noto agli indiani e ai cinesi nel XIV secolo. Successivamente, in Francia e nel mondo anglosassone, tale triangolo prese anche il nome di Triangolo di Pascal, quando nel 1654 il matematico francese pubblicò il libro "Le triangle Aritmetique", interamente dedicato alle sue proprietà. I coefficienti binomiali, inoltre, trovano largo uso in calcolo combinatorio, ossia in quella branca della matematica che si occupa di contare i modi di raggruppare, secondo determinate regole, gli elementi di un insieme finito di oggetti. Dunque, per quanto la definizione stessa di coefficienti binomiali sia semplice, essendo un rapporto di interi fattoriali, in realtà essi trovano ampio utilizzo in vari ambiti e proprio per questo suscitano un notevole interesse ed hanno svariate applicazioni, giocando un ruolo fondamentale in parti della matematica come la combinatoria. In questa tesi, oltre alle proprietà più note, sono contenuti anche alcuni collegamenti tra i coefficienti binomiali e i polinomi di variabile naturale, nonché, nell'ultima parte, applicazioni alle differenze finite di progressioni geometriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si propone di analizzare e dimensionare una missione in orbita bassa per due microsatelliti di osservazione terrestre. I microsatelliti si stanno attualmente diffondendo su larga scala, grazie principalmente ai vantaggi economici garantiti dal fatto di lavorare con masse ridotte. Parallelamente alla diffusione dei microsatelliti, stanno nascendo numerosi progetti per lo sviluppo di sistemi di aviolancio, che consentono di attuare i vantaggi dei microsatelliti anche nella fase più dispendiosa della missione, cioè la messa in orbita. Vengono, inizialmente, introdotti i sistemi coinvolti nella missione, cioè l’aviolanciatore Pegasus XL, due microsatelliti del peso di 100 kg ciascuno, e un motore elettrico ad effetto Hall per ciascun satellite, usato per il trasferimento orbitale. Si introducono poi brevemente le equazioni del moto del razzo e alcuni cenni di meccanica celeste, specialmente quello che riguarda la definizione dei parametri orbitali. Segue la vera e propria analisi di missione, divisa in due parti: la prima relativa alla fase di aviolancio, con l’obbiettivo di stabilire se effettivamente il lanciatore è in grado di portare il payload prestabilito nell’orbita circolare di parcheggio, e di dimensionare alcune variabili di volo, quali l’angolo di traiettoria iniziale e i due tempi di coasting dovuti allo sgancio degli stadi del razzo; la seconda parte verte invece sull’analisi della missione in orbita, specialmente sul trasferimento a bassa spinta dall’orbita di partenza a quella target, tramite il motore ad effetto Hall. Anche in questo caso si vuole verificare se le prestazioni del motore elettrico sono adeguate al tipo di missione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è incentrata sul sottotitolaggio di un episodio della serie TV "Mozart in the Jungle". Ho ritenuto che fosse interessante utilizzare questa serie perché offre diversi spunti di riflessione, sia dal punto di vista della traduzione per i sottotitoli sia che dal punto di vista dell'innovazione nell'ambito della produzione e della distribuzione di prodotti audiovisivi. Il lavoro è suddiviso in tre capitoli. Il primo capitolo presenta l’oggetto di studio della tesi, ovvero la serie TV. Alla descrizione della trama generale della prima stagione e di quella specifica del primo episodio (Pilot) viene affiancata un'analisi del fenomeno del crowdsourcing, al quale Amazon, casa produttrice della serie, ha fatto ricorso per creare questa ed altre serie di successo grazie all’aiuto del popolo del web. Nel secondo capitolo viene mostrata una panoramica sulla teoria della traduzione audiovisiva e più specificatamente del sottotitolaggio e dei principali accorgimenti che un sottotitolatore deve adottare. Il terzo e ultimo capitolo, invece, descrive l'applicazione pratica degli elementi individuati nel secondo capitolo, utilizzando esempi tratti dal testo originale e dalla mia traduzione per illustrare le strategie di risoluzione dei problemi traduttivi. Il paragrafo conclusivo include infine brevi considerazioni personali su alcuni aspetti del sottotitolaggio in generale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract in italiano L’oggetto del presente elaborato è una proposta di traduzione dal portoghese all’italiano di un racconto della scrittrice brasiliana Zélia Gattai intitolato "Pipistrelo das mil cores". Il libro ha come fine quello di educare i più piccoli alla tutela della fauna e porre un freno alla crudeltà sugli animali. Questo progetto si divide in tre capitoli: nel primo vengono presentate l’autrice e l’opera, nel secondo la traduzione e, nell’ultimo, vengono commentate le scelte traduttive con particolare attenzione al tipo di pubblico cui il testo è rivolto. Sinopse em português O tema desta dissertação é uma proposta de tradução de português para italiano dum conto da literatura infantil brasileira cujo título é "Pipistrelo das mil cores" escrito por Zélia Gattai. O livro tem o fim de sensibilizar as crianças sobre a salvaguarda da fauna e de pôr fim aos maus tratos infligidos aos animais. Este estudo encontra-se dividido em três capítulos: no primeiro, é apresentada a autora e a obra, no segundo, a tradução e, no terceiro, analizam-se as opções tradutivas com especial atenção para o tipo de leitores aos quais o texto está endereçado. Abstract in English The aim of this dissertation is to translate a piece of Brazilian children’s literature published under the title of "Pipistrelo das mil cores" written by Zélia Gattai from Portuguese into Italian. The objective of the book is to raise awareness of wildlife conservation and of cruelty to animals. This study is divided into three chapters. The first one introduces the author and the book, the second one presents a translation proposal and the last one analyses the translating choices with particular attention to the target audience.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato presenta una proposta di traduzione dei primi due capitoli del romanzo autopubblicato “Summer at sea” della scrittrice americana Beth Labonte, uscito nel 2015. L'elaborato si articola a partire da un'analisi approfondita del genere della chick lit, cui il romanzo appartiene, e prosegue con un riassunto delle principali tappe all'interno della storia della teoria della traduzione. Segue il commento alla traduzione, che evidenzia le difficoltà riscontrate e le soluzioni traduttive impiegate durante la stesura dell’elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato che segue vuole essere una guida che permetta al lettore di muoversi attraverso il campo intricato e appassionante della traduzione dei nomi parlanti nella letteratura per bambini e per ragazzi, utilizzando come spunto di riflessione la serie di Fairy Oak di Elisabetta Gnone. Il lettore viene guidato in un percorso che parte dalle origini dei nomi parlanti, le quali affondano nella vita quotidiana e nella letteratura del passato, e passa per una breve analisi di questa branca della teoria onomastica e di alcune teorie di traduzione, fino ad arrivare ad un esempio pratico. Lo spunto pratico per una riflessione in ambito traduttivo è tratto dai testi della saga di Fairy Oak, una serie di romanzi per ragazzi composta da una trilogia e da una quadrilogia (Il Segreto delle Gemelle, L'Incanto del Buio, Il Potere della Luce e Capitan Grisam e l'Amore, Gli Incantevoli Giorni di Shirley, Flox Sorride in Autunno). L’elaborato si concentrerà sulla trilogia e in particolare verrà messo in evidenza il ruolo dei nomi dei personaggi e dei luoghi. L’autrice italiana, Elisabetta Gnone, si è dedicata con grande cura alla creazione di antroponimi e toponimi, che descrivono e formano parte dei peronaggi e dei luoghi. Proprio questi nomi parlanti hanno presentato una sfida per i traduttori e rappresentano un esempio chiaro di come possano coesistere diversi approcci traduttivi o come, invece, a volte la strategia da adottare sia quasi obbligata dal contesto e dal destinatario della traduzione d’arrivo. Dagli esempi e dalle ricerche traduttologiche emerge che, nonostante sia impossibile definire una strategia univoca, è sempre possibile giungere a una soluzione, tramite un’attenta negoziazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli oceani coprono quasi il 75% della superficie della terra ed esercitano una grande influenza sulla vita di tutte le specie viventi e sull’evoluzione del clima a livello planetario. I repentini cambiamenti climatici hanno reso sempre piú importante studiarne i comportamenti. L’analisi della salinitá degli oceani é estremamente importante per gli studi sull’ambiente marino; puó essere usata per tracciare le masse d’acqua, descrivendone i flussi e svelandone la correlazione con i processi climatici, puó essere di aiuto ai biologi per studiare gli organismi marini e costituisce un parametro fondamentale per una vasta gamma di sensori. Un sistema autonomo che misuri conducibilitá e temperatura é il primo strumento per determinare la salinitá dell’acqua, sul mercato sono presenti sí numerosi sensori a elevata accuratezza ma necessitano di ingombranti strumenti di laboratorio per funzionare. Sistemi di ridotte dimensioni non sono invece altrettanto accurati ed affidabili. Questa tesi mira a sviluppare un'interfaccia che permetta di analizzare conducibilitá e temperatura con un elevato livello di accuratezza. Particolare attenzione sará posta all’elaborazione delle misure effettuate e alla caratterizzazione degli errori e dell’accuratezza del sistema. Partendo da queste basi in futuro si potrá creare un sistema autonomo a bassissima potenza, alimentato da batterie, che, basandosi sull’iterazione fra il chip impedenziometrico e il PIC, permetta di fare misure per un ciclo di vita di qualche anno.