998 resultados para indirizzo :: 654 :: Curriculum A (ambiente marino)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi svolto propone diversi argomenti di geometria la cui costruzione è stata fatta con il software GeoGebra. Propone anche alcuni metodi di integrazione numerica realizzati con esso e anche un modo di approssimare la superficie di rotazione di una funzione sfruttando tali metodi. Gli argomenti trattati spaziano da quelli classici della geometria euclidea a temi affrontati più recentemente esaminando sia oggetti rappresentabili sul piano sia nello spazio tridimensionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ipertensione arteriosa polmonare è una malattia ad esito infausto, con un piccolo tasso di incidenza sulla popolazione (in Italia circa 700 nuovi casi all’anno), ma senza una cura medica o farmacologica che ne risolva adeguatamente le problematiche. Tutti gli individui che contraggono tale patologia vengono sottoposti a forti terapie farmacologiche che aumentano le aspettative di vita di alcuni mesi o, in casi più fortunati, di qualche anno, ma non garantiscono una vita regolare e duratura (attesa di sopravvivenza circa cinque anni). In questa situazione di evidente inadeguatezza, una analisi biomeccanica dell’evoluzione della malattia sembra individuare nel progressivo disadattamento meccanico tra pompa e carico una delle cause di deterioramento, e tra i diversi modi di arrestare o compensare questa evoluzione si possono individuare soluzioni per aumentare la sopravvivenza dell’individuo, con una qualità della vita addirittura migliore rispetto a quella che l’approccio farmacologico oggi consente. Scopo di questo studio è la progettazione e la costruzione di un simulatore meccanico in grado di riprodurre l’accoppiamento e il trasferimento energetico tra il ventricolo destro e l’arteria polmonare, in condizioni fisiologiche normali e in caso di ipertensione arteriosa. La realizzazione di un simulatore che riproducesse dinamicamente valori fisiologici dei parametri di interesse (pressioni, volumi, resistenze, etc.) entro limiti accettabili non è stato facile; ciononostante, è stato ottenuto un risultato significativo, verificando la fattibilità di un intervento biomeccanico che modifichi l’evoluzione della malattia attraverso il recupero di un migliore adattamento tra pompa cardiaca e carico vascolare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettazione di un cuscino che si occupa di noi e ci aiuta nell'addormentarci attraverso la musica. Il tutto grazie all'aiuto di sensori e dell'Arduino che comunicheranno con lo smartphone per dare un'esperienza flessibile e personalizzabile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi descrive un sistema Client Server che ricava dagli smartphone, tramite modello crowdsourcing e crowdsensing, posizioni che successivamente verranno georeferenziate sulla mappa con lo scopo di favorire l'accessibilità urbana.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre più facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si può pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilità di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi è necessario però studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realtà aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicità fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realtà aumentata. In particolare in questo lavoro si porrà l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si pone come obiettivo quello di esplorare la possibilità di evolvere automi cellulari utilizzando algoritmi genetici al fine di trovare delle regole evolutive che permettano di generare un'immagine binaria qualunque a partire da una configurazione iniziale fissata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Flipped Classroom è una metodologia didattica innovativa che prevede una inversione dei momenti classici delle didattica: la lezione frontale a scuola e lo studio individuale a casa. L’idea alla base della Flipped Classroom è utilizzare la tecnologia moderna per diffondere i contenuti fuori dall’orario scolastico così da concentrare poi le ore di lezione sull’elaborazione dei contenuti stessi. In questo modo si riporta l’attenzione didattica sull’elaborazione dei contenuti piuttosto che sul loro ascolto passivo. A seguito dello studio teorico del metodo Flipped ho fatto una esperienza di tirocinio presso una classe terza della Scuola secondaria di primo grado "`Il Guercino"' dell'IC9, in collaborazione con la professoressa Leone, per applicare questa metodologia didattica. Una volta in classe, io e la professoressa, abbiamo considerato più efficace e utile, per gli studenti con cui lavoravamo, fare propedeutica piuttosto che Flipped Classroom. L’esperienza di tirocinio è stata conclusa con un questionario per valutare l’utilizzo, da parte dei nostri studenti, della piattaforma didattica Moodle, in uso nella scuola. I risultati dell’analisi delle risposte è stato conforme a quanto da noi atteso: data l’età i nostri studenti non avevano il giusto grado di autonomia per lavorare con la metodologia della Flipped Classroom.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si inquadra nel progetto nazionale di ricerca promosso dal Dipartimento della Protezione Civile (DPC) e dall’Istituto di Geofisica e Vulcanologia (INGV), denominato S2-2014/DPC-INGV Constraining observations into seismic hazard. Esso prevede la caratterizzazione geologica e geofisica di 77 stazioni della rete accelerometrica nazionale (RAN) al fine di correggere i dati osservati e le relazioni (leggi di attenuazione dell’accelerazione ecc.) che da essi derivano. Fino ad ora le stazioni sismiche erano state assunte come ubicate su roccia affiorante o su litotipi di altro tipo evinti da carta geologica, senza alcun tipo di verifica diretta. Le 77 stazioni sono state scelte tra quelle che presentavano una storia di operatività di almeno 25 anni. In questo lavoro è stata eseguita la caratterizzazione geologica e geofisica di 5 stazioni, collocate in Emilia-Romagna. Oltre alla caratterizzazione del sottosuolo, abbiamo prestato attenzione alla caratterizzazione dinamica delle strutture che ospitano le stazioni sismiche e alla ricerca di eventuali interazioni tra queste e i sensori accelerometrici, trasmesse attraverso il sottosuolo. Il rilevamento geologico e le prove geofisiche, sismica a stazione singola e array, eseguite nei siti hanno permesso di definire la categoria sismica di sottosuolo secondo l’approccio semplificato proposto dalle NTC (2008). Dallo studio è emerso che il segnale registrato dagli strumenti accelerometrici in quasi tutte le stazioni investigate risente in qualche modo della struttura in cui la stazione sismica è racchiusa (cabina ENEL in muratura, con sviluppo a torre di circa 7-8 m di altezza). Ne segue che i dati registrati da queste stazioni sismiche sopra 3-5 Hz (a seconda della specifica struttura) non sono immediatamente utilizzabili o interpretabili come legati all’effetto del solo sottosuolo o del solo segnale sismico. In essi si accoppia, e spesso come effetto del primo ordine, la vibrazione propria (nei modi fondamentale e superiori, flessionali e torsionali) della struttura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.