930 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
Scopo della tesi è la trattazione dei logaritmi a partire dalla storia di quest'ultimi, al loro sviluppo, fino ad arrivare alle diverse applicazioni dei logaritmi in svariate discipline. La tesi è strutturata in quattro capitoli, nel primo dei quali si parte analizzando quali istanze teoriche e necessità pratiche abbiano preparato la strada all'introduzione dei logaritmi. Vengono riportati alcuni passi del testo più importante dedicato da Nepero ai logaritmi, Mirifici Logarithmorum Canonis Constructio, la modifica ad opera di Henry Briggs e la diffusione dei logaritmi in gran parte dell' Europa. Nel secondo capitolo viene evidenziato il legame tra i logaritmi e la geometria dell'iperbole per poi passare alla trattazione dei primi studi sulla curva logaritmica. Nel terzo capitolo viene esaminata la controversia tra Leibniz e Bernoulli sul significato da attribuire ai logaritmi dei numeri negativi soffermandosi su come Eulero uscì da una situazione di stallo proponendo una teoria dei logaritmi dei numeri complessi. Nel quarto ed ultimo capitolo vengono analizzati i diversi utilizzi della scala logaritmica ponendo soprattutto l'attenzione sul regolo calcolatore, arrivando infine a mostrare le applicazioni dei logaritmi in altre discipline.
Resumo:
Lo scopo di questo lavoro è mostrare la potenza della teoria di Galois per caratterizzare i numeri complessi costruibili con riga e compasso o con origami e la soluzione di problemi geometrici della Grecia antica, quali la trisezione dell’angolo e la divisione della circonferenza in n parti uguali. Per raggiungere questo obiettivo determiniamo alcune relazioni significative tra l’assiomatica delle costruzioni con riga e compasso e quella delle costruzioni con origami, antica arte giapponese divenuta recentemente oggetto di studi algebrico-geometrici. Mostriamo che tutte le costruzioni possibili con riga e compasso sono realizzabili con il metodo origami, che in più consente di trisecare l’angolo grazie ad una nuova piega, portando ad estensioni algebriche di campi di gradi della forma 2^a3^b. Presentiamo poi i risultati di Gauss sui poligoni costruibili con riga e compasso, legati ai numeri primi di Fermat e una costruzione dell’eptadecagono regolare. Concludiamo combinando la teoria di Galois e il metodo origami per arrivare alla forma generale del numero di lati di un poligono regolare costruibile mediante origami e alla costruzione esplicita dell’ettagono regolare.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Allosaurus fragilis (Theropoda: Carnosauria) è tra i dinosauri del Giurassico Superiore meglio conosciuti grazie a numerosi scheletri rinvenuti a partire dal secolo scorso. Le collezioni del Museo Universitario Paleontologico del Dipartimento di Scienze Chimiche e Geologiche dell'Università di Modena e Reggio Emilia ospitano uno scheletro costituito da reperti originali provenienti dal Cleveland-Lloyd Dinosaur Quarry (Utah) ad oggi non descritto in dettaglio. Il temporaneo disallestimento dello scheletro per la realizzazione di una nuova struttura museale ha permesso di esaminare in dettaglio i singoli elementi scheletrici. La storia di come e quando il materiale sia giunto a Modena rimane incerta, e per questo lavoro si è raccolta tutta la documentazione storica per completare le informazioni relative all'esemplare. In questa tesi vengono inoltre descritti alcuni degli elementi più diagnostici al fine di verificare se lo scheletro rappresenta uno o più individui di Allosaurus fragilis, la specie più abbondante e meglio documentata del Cleveland-Lloyd Dinosaur Quarry. Per questo obiettivo le ossa sono state confrontate con esemplari di riferimento in letteratura e inquadrate all'interno del contesto tafonomico del sito di ritrovamento. Durante le fasi di studio, i reperti esaminati sono stati acquisiti come modelli tridimensionali ad alta risoluzione mediante tecniche fotogrammetriche. Questo per garantire fruibilità ai singoli elementi anche in seguito al riallestimento dello scheletro per fini espositivi. I dati raccolti in questa tesi, ed in particolare 1. l’analisi del contesto tafonomico e tassonomico del Cleveland-Lloyd Dinosaur Quarry; 2. il confronto morfometrico tra le ossa presenti a Modena e quelle descritte in letteratura, e 3. le caratteristiche specifiche dei reperti esaminati, permettono di chiarire numerosi aspetti legati alla storia del reperto e al numero di individui rappresentati dallo scheletro di Allosaurus fragilis del Museo di Modena.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Tesi mirata allo studio dei protocolli di routing IP utilizzati per l'inoltro dei pacchetti in una topologia non banale. Sono state utilizzate macchine Linux Raspberry Pi per il loro costo e ingombro per costruire la rete. In particolare, è stata implementata una rete caratterizzata da sette router divisi in tre aree distinte, ai quali sono state connesse sette LAN. Si è installato e utilizzato il software quagga per attivare il protocollo OSPF (Open Shortest Path First). Per limitare i dispositivi fisici si è utilizzato il software Mininet per virtualizzare switch e LAN. Infine, sono stati trattati elementi teorici del routing su Internet, applicati alla rete creata per verificarne il funzionamento.
Resumo:
Ricercare eventuali variazioni o trend nei fenomeni meteorologici è sempre stato uno degli obiettivi degli studi di ricerca. Il dibattito in letteratura evidenzia la difficoltà nell’individuare in maniera univoca un trend relativo agli eventi precipitativi. Nonostante la grande variabilità climatica, la diminuzione delle precipitazioni in inverno e primavera negli ultimi decenni, nel sud Europa e nella parte occidentale del bacino del Mediterraneo, è stata ampiamente confermata. Inoltre, è sempre più importante osservare come eventuali variazioni nelle precipitazioni possano influenzare variazioni di portata volumetrica di un fiume. Il presente studio ha l’obiettivo di individuare eventuali variazioni nelle precipitazioni e nel regime idraulico del bacino di Imola. Lo studio ha preso in considerazione gli eventi precipitativi dagli anni ’20 al 2014 sul bacino del Santerno, localizzato nelle aree montane centro orientali dell’Emilia-Romagna. Dopo aver effettuato il controllo qualità e di omogeneità sui dati ne è stata fatta un’analisi statistica da cui è risultato, in accordo con la letteratura, una diminuzione delle precipitazioni cumulate invernali e del numero di giorni piovosi annuali per alcune stazioni considerate. Attraverso l’uso del modello TOPKAPI, sono state ricostruite alcune variabili idrologiche, come la portata del fiume in una particolare sezione di chiusura, l’umidità del suolo, l’evapotraspirazione potenziale ed effettiva, così da poterne valutare i trend stagionali e annuali. Non è stata rilevata alcuna variazione sia nella portata massima e minima annuale che in quella oraria, mentre è stato identificato un aumento significativo nell’evapotraspirazione potenziale in tutte le stagioni ad eccezione dell’autunno e una diminuzione della saturazione del suolo in inverno e primavera. Infine, le analisi sulle precipitazioni aggregate hanno confermato i risultati ottenuti nella prima parte dello studio. Per concludere, nonostante siano stati evidenziati alcuni cambiamenti significativi nelle precipitazioni cumulate stagionali, non è stata riscontrata alcuna variazione apprezzabile della portata per la sezione di chiusura considerata.
Resumo:
Un discreto numero di molecole biologicamente attive contenute nei cibi vegetali si suppone esercitino un ruolo preventivo e favorevole su molteplici funzioni dell’organismo, con meccanismi d’azione spesso legati alla modulazione diretta e indiretta dello stress ossidativo. Acido ascorbico, tocoferoli, carotenoidi, polifenoli, posseggono attività antiossidante e giocano un ruolo positivo nella conservazione dello stato di salute. L’elevato contenuto di essi nei peperoni dolci (Capsicum Annuum L.) ha incrementato l’interesse nei confronti di questi vegetali da parte del settore agronomico e dell’industria alimentare. È tuttavia noto che la concentrazione di composti bioattivi può essere molto diversa anche tra cultivar della stessa specie vegetale ed è pertanto importante evidenziare il contenuto quali-quantitativo delle varie molecole nelle diverse cultivar di peperoni dolci, in modo da evidenziare le più ricche di tali componenti. Occorre però tenere conto anche della biodisponibilità e bioaccessibilità dei diversi componenti funzionali. Infatti il possibile effetto positivo di tali molecole non dipende solo dal loro contenuto nell’alimento ma soprattutto dalla quantità che viene rilasciata dalla matrice alimentare durante il processo digestivo, e che quindi risulta essere potenzialmente biodisponibile e attivo nell’organismo. Scopo della ricerca presentata è stato valutare e confrontare la digeribilità e la bioaccessibilità di alcuni composti bioattivi antiossidanti in peperoni dolci rossi e gialli appartenenti a due diverse cultivar, Lamuyo e Corno di Toro. Il contenuto fenolico totale e di vitamina C, l’attività antiossidante totale sono stati determinati nei campioni di peperone digeriti in vitro, e comparati ai prodotti freschi, evidenziando differenze significative in termini di bioaccessibilità in particolare tra i peperoni rossi delle due cultivar. Sebbene il processo di digestione in vitro sia una simulazione parziale ed incompleta di quanto accade in vivo, la valutazione di un alimento dopo averlo sottoposto a tale processo rappresenta un importante progresso nello studio delle proprietà e del valore nutrizionale degli alimenti.
Resumo:
Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.
Resumo:
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.
Resumo:
Solitamente i dati telemetrici vengono campionati a intervalli regolari. Alcuni parametri, se di maggiore interesse, vengono campionati con maggiore frequenza. Questa operazione non sempre è possibile a causa delle limitazioni di banda tra spazio e terra. Una pratica comune per rispettare tali limitazioni consiste nel ridurre il campionamento di dati di minor interesse in modo da poter analizzare più attentamente i dati interessati. Non si possono analizzare attentamente alcuni dati senza trascurarne degli altri. Per migliorare lo studio di alcuni dati e rispettare le limitazioni di banda è stato studiato e sviluppato presso ESOC (Centro europeo per le operazioni spaziali) la tecnica di ricampionamento frattale. Il ricampionamento frattale prende i campioni di dati di serie temporali originali e produce un insieme di minor numero di campioni, non necessariamente ad intervalli regolari, che ricorda la serie temporale originale, offrendo una garanzia di errore massimo configurabile. Questa tecnica offre la possibilità di campionare i dati con maggiore frequenza e precisione a bordo e di trasmettere poi a terra solo i campioni necessari per ricostruire il segnale originale con il livello desiderato di precisione e con importanti riduzioni di dati. Ciò significa che il ricampionamento frattale non solo permette di migliorare l’osservabilità dei dati ma anche di ridurre i requisiti di larghezza di banda.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
La forma spettrale dell’X-ray background richiede l’esistenza di un grande numero di AGN mediamente oscurati, oltre alla presenza di AGN fortemente oscurati, la cui densità di colonna supera il limite Compton (Nh>10^24 cm^(-2)). A causa della loro natura, questi oggetti risultano di difficile osservazione, per cui è necessario adottare un approccio multi-banda per riuscire a rivelarli. In questo lavoro di tesi abbiamo studiato 29 sorgenti osservate nel CDF-S e 10 nel CDF-N a 0.07