399 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
Questa tesi compilativa prende in esame la cartilagine, partendo dalla composizione dei suoi diversi tipi rappresentati nel corpo umano e delle funzioni qui svolte, per descrivere i metodi utilizzati per riprodurla artificialmente mediante cellule staminali, fattori di crescita e scaffold dedicati coltivati in ambiente controllato. La cartilagine è un tessuto molto particolare perché, diversamente dagli altri tessuti, non possiede una rete di capillari e quindi riceve un limitati apporto di ossigeno e sostanze nutritive, che spiega la sua poverissima capacità intrinseca di riparazione. La cartilagine è però un tessuto soggetto a numerosi stress di vario tipo e quindi è soggetta a traumi che possono essere di natura sportiva o accidentale (soprattutto la cartilagine di tipo articolare) ed è anche colpita da malattie degenerative. Questo ha stimolato gli studi che intendono ingegnerizzare un tessuto artificiale in grado di aumentare la capacità di riparare la zona colpita. In quest’ottica, vengono attivamente condotti esperimenti in grado di definire protocolli che inducano cellule staminali al differenziamento in cellule di tipo cartilagineo. Tali cellule, seminate su supporti (scaffolds) 3D biocompatibili di diversa natura, naturali o sintetici, eventualmente bioattivi, possono essere coltivate in ambienti dedicati, detti bioreattori, che utilizzino stimoli fisici (p. es. vibrazionali, microgravità, ultrasonici, regolazione della tensione di ossigeno, sforzi di taglio, compressione dinamica e compressione idrostatica ciclica) che si sono dimostrati utili per indurre l’appropriato fenotipo cellulare, valutabile attraverso una batteria di approcci di misura morfologica e funzionale.
Resumo:
I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
Il problema che si vuole affrontare è la progettazione e lo sviluppo di un sistema interattivo volto all’apprendimento e alla visita guidata di città d’arte. Si vuole realizzare un’applicazione per dispositivi mobili che offra sia il servizio di creazione di visite guidate che l’utilizzo delle stesse in assenza di connessione internet. Per rendere l’utilizzo dei servizi offerti più piacevole e divertente si è deciso di realizzare le visite guidate sotto forma di cacce al tesoro fotografiche, le cui tappe consistono in indizi testuali che per essere risolti richiedono risposte di tipo fotografico. Si è inoltre scelto di realizzare una community volta alla condivisione delle cacce al tesoro realizzate e al mantenimento di statistiche di gioco. Il contributo originale di questa tesi consiste nella progettazione e realizzazione di una App Android, denominata GeoPhotoHunt, che sfrutta l’idea della caccia al tesoro fotografica e geo localizzata per facilitare le visite guidate a luoghi di interesse, senza la necessità di una connessione ad internet. Il client viene reso indipendente dal server grazie allo spostamento degli algoritmi di image recognition sul client. Esentare il client dalla necessità di una connessione ad internet permette il suo utilizzo anche in città estere dove solitamente non si ha possibilità di connettersi alla rete.
Resumo:
La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013). Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al., era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.
Resumo:
Il prodotto principale del lavoro è la Carta Geologica alla scala 1:5.000 che ha portato un avanzamento delle conoscenze nella zona in esame. Dal punto di vista stratigrafico il Gruppo dei Calcari Grigi è stato suddiviso nelle formazioni già distinte nei Fogli CARG Tione, Malè, Trento e Asiago: la Formazione di Monte Zugna, Fm. Di Loppio, Fm. Di Rotzo, Fm. Di Grigno. È stato possibile anche rilevare e cartografare l’Oolite di S. Vigilio, anche detta Encrinite di Monte Agaro, con uno spessore di circa 5 m sino alla zona di Sass de Falares, cioè più ad est di quanto noto in letteratura. E’ stato osservato che la Linea di Belluno non è un piano unico, ma comprende altre due faglie: la Linea di Monte Piad che consiste in una faglia inversa che taglia in cerniera l’Anticlinale del Monte Coppolo, e poco a sud la Linea di Sasso Falares che rappresenta la faglia che ha generato la piega per propagazione di faglia del Coppolo, e proseguendo poi verso l’alto ha tagliato tutta la piega emergendo in superficie. In tal modo si forma il duplex di Sasso Falares, arrangiato in una blanda coppia anticinale-sinclinale tipica della geometria di queste strutture, che risulta delimitato a nord dalla linea omonima e a sud dalla L. di Belluno s.s. che si incontrano a quota circa 700 m. Si è potuta anche ricostruire la cinematica del piano principale del thrust di Belluno studiando l’affioramento eccezionale messo a nudo di recente. Gli assi degli sforzi, agenti in compressione, ricostruiti tramite l’analisi meso-strutturale, testimoniano una compressione orientata NNW-SSE, correlabile con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina. Anche l’Evento compressivo del Cattiano-Burdigalliano con asse N30 ed una compressione orientata circa E-W correlabile con l’Evento Scledense del Messiniano-Pliocene risultano dall’analisi strutturale.
Resumo:
Il lavoro si propone di definire l’assetto geologico strutturale dell’area compresa tra la Valle del Torrente Cismon ed il Sass de Falares, a nord di Lamon (BL). Le novità che si sono potute aggiungere alla cartografia esistente, dal punto di vista stratigrafico sono: 1) La suddivisione del gruppo dei Calcari Grigi in quattro formazioni presenti più a occidente, quali la formazione di Monte Zugna, la formazione di Loppio, la formazione di Rotzo e la formazione del Grigno che in queste zone non erano ancora state evidenziate. La presenza di diffusi noduli di selce grigio-giallastra presenti nella parte medio-alta della formazione di Monte Zugna che testimoniano la persistenza di un ambiente subtidale nel Lias al passaggio tra Alto di Trento e Bacino Bellunese. 2) La presenza dell’Encrinite di Monte Agaro (Oolite di S.Vigilio) con uno spessore esiguo di 5 m sul Monte Coppolo ed anche in cresta a Sass de Falares. In ambito tettonico: 1) Si è accertato che l’anticlinale del Monte Coppolo è tagliata dalla faglia inversa del M.Piad con direzione circa E – O e immergente a N con un’inclinazione di circa 70° spezzando la piega quasi in cerniera; la si può riconoscere sul versante S ed E del M. Coppolo dove disloca la Fm. di M. Zugna e la Dolomia Principale. 2) Si è ricostruito l’assetto tettonico del Sass de Falares, che risulta essere una scaglia tettonica (duplex) compresa tra la Linea di Sass de Falares e la Linea di Belluno. 3) L’Anticlinale del M. Coppolo si è generata per propagazione di una faglia che corrisponde alla Linea di Sass de Falares che in seguito ha tagliato l’anticlinale con meccanismi di fault bend folding. Infine per ultima si è formata la Linea di Belluno s.s. a basso angolo con un raccorciamento maggiore di 2 km. Il sovrascorrimento di Belluno pertanto non è una struttura unica ma si sfrangia in 3 strutture tettoniche separate: Linea di M.Piad, Linea di Sass de Falares e Linea di Belluno s.s. 4) In Val della Selva è stato invece fatta la scoperta più importante di questo lavoro, visto che si è potuto osservare direttamente il piano principale della Linea di Belluno affiorante sulla strada forestale che porta verso la località Pugnai e quindi studiarlo e tracciarlo con precisione sulla carta. Esso ha direzione N68 ed un inclinazione di 30° verso NNW; mette a contatto la Fm. di M. Zugna con la Maiolica. Nell’affioramento si è potuta definire l’anatomia della zona di taglio con associazioni di piani R, R’, P e tettoniti S-C. 5) La ricostruzione della sezione geologica ci ha permesso di riconoscere l’organizzazione degli strati coinvolti nella deformazione. Attraverso programmi appositi quali Georient e Software Carey sono stati ricostruiti gli assi di massima compressione tramite l’analisi meso-strutturale: essi testimoniano una compressione orientata NNW-SSE, in accordo con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina, ma sono stati riconosciuti anche assi di compressione orientati NE-SW e circa E-W correlabili con l’Evento Insubrico del Miocene inf. e con l’Evento Scledense del Messiniano - Pliocene.
Resumo:
Studio e progettazione di un gruppo turbocompressore ad altissimo rapporto di compressione. Saranno progettati la girante del compressore centrifugo, il diffusore, la voluta e la girante della turbina centripeta.
Resumo:
Il presente lavoro è stato finalizzato all’analisi delle caratteristiche spettrali delle acque sia da dati in situ che telerilevati, attraverso l’implementazione di algoritmi semi-empirici e modelli bio-ottici dedicati. Inoltre prende in considerazione la correzione delle immagini ottiche per la mappatura delle concentrazioni del particellato sospeso per osservarne la distribuzione nelle acque costiere dell’Alto Adriatico. Le acque costiere sono caratterizzate da un'alta variabilità di proprietà ottiche che dipende dalle specifiche ambientali e stagionali, dai processi idrodinamici e dalle componenti che contiene. Lo studio della dinamica di dispersione del materiale totale sospeso, analizzato in questo lavoro, è stato possibile proprio grazie alle proprietà ottiche del particellato sospeso che, assieme alla clorofilla, è annoverato tra le sostanze otticamente attive. E’ stata svolta un’analisi pluriennale al fine di valutare quali fossero i diversi fattori che influenzano le dinamiche e la distribuzione del particellato sospeso presente nelle acque costiere nell’area prospiciente il delta del Po. La dinamica di dispersione del materiale sospeso in acque superficiali è modulato da variazioni spazio-temporali legate a diversi fattori, tra i quali sono stati considerati l’influenza dell’apporto fluviale del Po e il contributo derivante da diverse condizioni meteomarine. L’analisi effettuata e i risultati ottenuti sono un contributo preliminare a supporto di una gestione costiera, e può fornire una visuale d’insieme dei principali fattori che determinano la presenza di materiale sospeso nella regione costiera esaminata. Tali informazioni sono utili ad una gestione più informata al fine di ridurre gli impatti legati alla presenza di materiale sospeso nelle acque dell’area presa in esame. Le attività svolte sono incluse nel progetto CYAN IS WAS all’interno del programma esecutivo sulla cooperazione scientifica e tecnologica tra la Repubblica d’Italia e il Regno di Svezia per gli anni 2010-2013 e nell’ambito del progetto bandiera RITMARE.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.
Resumo:
I materiali compositi sono largamente utilizzati nel moderno campo ingegneristico e garantiscono una notevole riduzione di peso rispetto ai materiali classici, a parità di caratteristiche meccaniche. Le conoscenze su di essi tuttavia presentano ancora delle lacune: in particolare un aspetto critico di tali materiali è rappresentato dal loro comportamento successivo ad un impatto. Obiettivo della presente tesi è indagare tale problematica mediante la realizzazione di una campagna sperimentale innovativa. Verrà presentata una introduzione generale sui materiali compositi e sulla problematica dei danni da impatto e verrà descritta l'attrezzatura utilizzata per la realizzazione degli impatti, analizzando le problematiche riscontrate e le soluzioni trovate. Dopo un accenno ai Controlli Non Distruttivi effettuabili sui materiali compositi, verrà mostrata l'attrezzatura per la realizzazione di prove a compressione, analizzando le problematiche riscontrate e le soluzioni trovate. Saranno elencati i dati acquisiti durante le prove di impatto e di compressione e, infine, saranno illustrate le conclusioni del lavoro e i possibili sviluppi futuri.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Analisi del cammino in acqua tramite sensori inerziali: Accuratezza strumentale e fasce di normalita
Resumo:
La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.