566 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi è stata studiata dal punto di vista micropaleontologico una successione sedimentaria (carota C98) campionata nel Mare di Ross durante la campagna ANTA95 nell’ambito del progetto congiunto Korea -Italia Ross Slope, finanziato dal ProgrammaNazionale di Ricerca in Antartide (PNRA). L’indagine ha riguardato lo studio quantitativo delle associazioni a foraminiferi planctonici e bentonici con l’obiettivo di ricostruire gli scenari paleoambientali e paleoclimatici di quest’area durante il tardo Quaternario. In relazione alle associazioni di foraminiferi ed in base alla biostratigrafia a diatomee, l’intervallo studiato si è deposto durante lo stadio isotopico 5. La presenza di Neogloboquadrina pachyderma ad avvolgimento destrorso, associata ad un aumento delle forme bentoniche è stata messa in relazione con le fasi più calde dello stadio isotopico 5 in cui l’ambiente di mare aperto era caratterizzato da alta produttività primaria in superficie e presenza di materia organica sul fondale permettendo lo sviluppo dei foraminiferi bentonici sul fondale. Al contrario la presenza di intervalli con ridotto numero di specie e aumento della specie Miliammina arenacea è stata correlata con le fasi più fredde dello stadio isotopico 5, associate anche ad a un aumento della corrente fredda, salata HSSW che è una massa d’acqua e determina la corrosione dei carbonati. Il limite inferiore dello stadio isotopico 5 (passaggio stadio isotopico 6/ 5) è caratterizzato da un graduale aumento delle specie e del numero di individui con presenza di clasti centimetrici evidenziando un riscaldamento climatico e la presenza di icebergs. Il limite superiore dell’intervallo studiato (passaggio stadio isotopico 5/4) presenta una drastica riduzione di Foraminiferi bentonici probabilmente dovuta alla presenza di copertura glaciale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grazie all'enorme sviluppo dei LED, le comunicazioni tramite luce visibile stanno acquisendo sempre maggiore importanza. Obiettivo di questa tesi è implementare su schede a basso costo (come Rasperry Pi) un sistema di trasmissione e ricezione basato appunto sulla visible light communication. Dopo un primo tentativo di trasferire il codice OpenVLC, sviluppato dal centro di ricerca spagnolo IMDEA Network, su Rasperry Pi, si è deciso di intraprendere una nuova strada e si è implementato un trasmettitore VLC in Simulink di Matlab e una prima bozza di ricevitore che sfrutta la SPI (serial-parallel interface). I primi risultati mostrano il corretto funzionamento del sistema anche se con data rate molto basse. Sviluppi futuri prevederanno l'ottimizzazione del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa tesi di Laurea è stato di analizzare gli scambi termici radiativi che si verificano all’interno di una stanza; per eseguire questa analisi si sono calcolati i fattori di vista Fij tra diversi punti (i) definiti tramite una griglia regolare posta all’interno della stanza e le superfici che vi si affacciano (j); tale griglia prevede 25 punti posti a 3 altezze diverse, per un totale di 75 punti. Dalla conoscenza delle temperature superficiali si sono ottenuti i valori di temperatura media radiante nei punti della griglia, e successivamente i valori degli indici di benessere PMV (voto medio previsto) e PPD (percentuale prevista di insoddisfatti), fissando i parametri necessari. Il calcolo dei fattori di vista è stato eseguito tramite il software TRISCO®, dopo averne confrontato i risultati forniti con COMSOL® e dopo aver valutato la correttezza di alcune approssimazioni. Il modello utilizzato nelle simulazioni è costituito da una stanza di 5x5x2,8 m, in cui sono stati fatti variare il numero e la posizione di alcuni elementi caratterizzanti, come finestre e radiatori, oltre a tipologia di elementi scaldanti e posizione e numero di pareti esterne, tramite la variazione delle temperature. In seguito si è analizzata la potenza scambiata per irraggiamento dagli elementi scaldanti, per poter riconoscere gli elementi responsabili dei maggiori contributi; nel caso di pavimento o soffitto radiante si è divisa tale superficie in diverse porzioni per riconoscere le zone della superficie radiante più influenti. I risultati ottenuti mostrano che la presenza di radiatori, finestre o pareti esterne, introducendo elementi di disturbo asimmetrici, forniscono andamenti disuniformi di temperatura e PMV, con l’omogeneità che migliora allontanandosi da tali elementi; impianti a pavimento o soffitto radiante producono risultati decisamente migliori, sia per quanto riguarda i valori assoluti di temperatura e PMV, che nell’omogeneità della relativa distribuzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diffusione di smartphone con GPS si è rilevata utile per lo studio di modelli di scelta del percorso da parte di utenti che si muovono in bicicletta. Nel 2012 è stata ideata la ‘European Cyclinq Challenge’ (ECC), che consiste in una “gara” europea tra città: vince quella nella quale i rispettivi abitanti registrano il maggior numero di chilometri effettuati in bicicletta. In questo modo è possibile conoscere in forma anonima i percorsi realmente seguiti dai partecipanti alla gara: nel caso in esame, sono state fornite le tracce GPS registrate a Bologna sotto forma di punti catalogati ogni 10-15 secondi, a cui sono associate informazioni di coordinate, codice identificativo e istante di registrazione. Una fase di map-matching associa tali punti alla rete stradale di Bologna, descritta nel caso in esame dalla rete di Open Street Maps (OSM). Un elemento che garantisce al meglio la comprensione relativa alle scelte dei ciclisti, è quello di confrontarle con l’alternativa più breve, per capire quanto un utente sia disposto a discostarsi da essa per privilegiare ad esempio la sicurezza personale, il fatto di evitare pendenze elevate o incroci pericolosi. A partire dai punti GPS, che rappresentano l’origine e la destinazione di ogni viaggio, è possibile individuare sulla rete il percorso più corto che li congiunge, eseguendo sulla stessa rete tramite l’algoritmo di Dijkstra, considerando come unico attributo di costo la lunghezza. È stato possibile, mediante questi dati, effettuare un confronto nei tre anni di studio, relativamente alla distribuzione statistica delle lunghezze dei viaggi percorsi dagli utenti, a quanto questi si discostino dal percorso più breve ed infine come varia la percentuale dei viaggi effettuati nelle diverse tipologie stradali. Un’ultima analisi evidenzia la possibile tendenza degli utenti che si spostano in bicicletta nella città di Bologna, a utilizzare percorsi caratterizzati dalla presenza di numerosi incroci semaforizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato è stato discusso il tema della depurazione delle acque reflue, in particolar modo il sistema SBR. L'SBR (Sequencing Batch Reactors) è un sistema di impianti di depurazione composto da una vasca di raccolta del liquame e una o più vasche in parallelo, i reattori, che consistono nel vero e proprio cure dell'impianto. Di fatto le fasi del processo depurativo restano immutate rispetto ad un impianto tradizionale, ma l'SBR introduce come nuovo parametro dimensionale il tempo. infatti, tutti i trattamenti depurativi sono svolti sequenzialmente nel reattore. Un programma gestisce le varie fasi del trattamento esclusivamente sulla base della loro durata (stabilita relativamente alla natura del refluo e quindi ai trattamenti da svolgere in maniera più o meno intensiva). Questa caratteristica rende l'intero impianto molto versatile nel caso di variazioni dei dati in ingresso. Per questo motivo gli impianti SBR sono ottimi per la piccola media impresa, in quanto sono facilmente adattabili alle variazioni stagionali di produzione. Sono inoltre possibili realizzazioni di impianti per il trattamento di ingenti portate, o elevate concentrazioni, ponendo più reattori in parallelo alimentati dalle stessa vasca di accumulo. In questo modo è possibile svolgere un maggiore numero di cicli depurativi al giorno e quindi rispettare i valori normativi in uscita dell'impianto. In conclusione questa tipologia d'impianto presenta notevoli vantaggi fra i quali anche quello di avere bassi costi operativi. La motivazione di ciò sta nel fatto che l'impianto lavora solo se ha effettivamente una portata, per cui se non vi è presenza di refluo il reattore non lavora e quindi non comporta costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio intrapreso si è posto come obiettivo la caratterizzazione dal punto di vista elettrico dei materiali coinvolti nella realizzazione di accessori per applicazioni in HVDC, in particolare mescole isolanti, semiconduttive e varioresistive. La necessità di un lavoro di questo tipo viene giustificata dalla costante espansione dei sistemi in DC nella trasmissione dell’energia elettrica, i quali presentano caratteristiche fisiche che si differenziano sensibilmente da quelle tipiche dei tradizionali sistemi in AC, dunque richiedono componenti e materiali opportunamente progettati per garantire condizioni di servizio sicure e affidabili. L’obiettivo della trattazione consiste nello studio di analogie e differenze tra le proprietà elettriche fornite da prove su diverse configurazioni di provini, nella fattispecie di tipo piano e cilindrico cavo. In primo luogo si studiano i provini di tipo piano al fine di ricavare informazioni basilari sul materiale e sulla mescola che lo costituisce e di prendere decisioni relative al proseguimento dei test. Dopo aver effettuato un sufficiente numero di test su varie tipologie di provini piani e aver riconosciuto le mescole più performanti dal punto di vista elettrico, meccanico e termico, si procede alla realizzazione di provini cilindrici stampati, su cui si intraprendono le medesime misure effettuate per la configurazione piana. Questa seconda fase di caratterizzazione è fondamentale, in quanto consente di verificare che le proprietà già studiate su piastra si conservino in una geometria molto più simile a quella assunta dal prodotto finale evitando di sostenere costi onerosi per la produzione di un accessorio full-size. Il lavoro è stato svolto nel laboratorio elettrico di alta tensione della divisione R&D del gruppo Prysmian di Milano, leader mondiale nella produzione di sistemi in cavo per alte e altissime tensioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si concentra sullo studio dell'architettura di un sistema operativo real-time e tratta approfonditamente il dispositivo embedded Raspberry Pi. Successivamente,si procede con l'installazione di BitThunder(un RTOS basato su FreeRTOS) su tale sistema embedded e si attua un test pratico per verificarne il funzionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene trattata la selezione ed implementazione di un software che permetta di effettuare il monitoraggio e l'invio di segnalazioni automatiche di allerta per un cluster composto da dispositivi aventi capacità computazionali ridotte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi nasce dall’esigenza di ottimizzare, da un punto di vista acustico e prestazionale, un ventilatore centrifugo preesistente in azienda. Nei primi tre capitoli si è analizzato il problema da un punto di vista teorico, mentre nel terzo e quarto capitolo da un punto di vista computazionale sfruttando tecniche CFD. Nel primo capitolo è stata fatta una trattazione generale dei ventilatori centrifughi, concentrandosi sul tipo di problematiche a cui questi vanno incontro. Nel secondo capitolo è stata presentata la teoria che sta alla base di una rilevazione sperimentale e di un’analisi acustica. Unitamente a ciò sono stati riportati alcuni articoli che mostrano tecniche di ottimizzazione acustica in ventilatori centrifughi. Nel terzo capitolo è stata riassunta la teoria alla base della fluidodinamica e di uno studio fluidodinamico. Nel quarto capitolo viene spiegato come è stato creato il modello fluidodinamico. Si è optato per un’analisi del problema in stato stazionario, sfruttando il Moving Reference Frame, e considerando l’aria come incomprimibile, visto il ridotto numero di Mach. L’analisi acustica è stata effettuata nel post-processing sfruttando il modello di Proudman. Infine è stata dimostrata la correlazione che intercorre tra i tre punti della curva resistente del ventilatore di funzionamento reale, permettendo di estendere i risultati ricavati dalla analisi di uno di questi agli altri due. Nel quinto capitolo è stata effettuata un’analisi dei risultati ottenuti dalle simulazioni fluidodinamiche e sono state proposte diverse modifiche della geometria. La modifica scelta ha visto un miglioramento delle prestazioni e una minore rumorosità. Infine sono state proposte nelle conclusioni ulteriori possibili strade da percorre per un’indagine e ottimizzazione del ventilatore più accurata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.