573 resultados para numeri reali, Weierstrass, Pincherle, Hurwitz


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato si trattano le soluzioni possibili del Problema dei Tre Corpi nell'ambito della Meccanica Celeste. Nella prima parte viene proposta una trattazione matematica del problema legata alla Meccanica Analitica; nella seconda parte si confrontano i risultati trovati con esempi reali presenti nel Sistema Solare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Nubi di Magellano sono una coppia di galassie irregolari molto vicine alla nostra. La loro vicinanza le ha rese target ideali per molti studi, tra cui ricerche sulla formazione ed evoluzione di popolazioni stellari. Da questi studi è emerso che una delle principali differenze tra le Nubi e la MW sta nella popolazione di ammassi globulari: circa il 20% degli ammassi di LMC, infatti, appartiene a una coppia. Si tratta di distinguere tra coppie reali o apparenti, cercando sistemi legati. Questo può essere fatto per via spettrometrica (attraverso velocità radiali o composizione chimica) e/o fotometrica (attraverso stima dell'età e profili di densità). In questo lavoro vengono analizzate fotometricamente tre coppie di LMC, al fine di determinarne la natura per migliorare le statistiche esistenti e porre dei constrain sulle conoscenze a disposizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa argomentazione tratta la traduzione e l'adattamento spagnolo del musical The Lion King. In primo luogo viene data una descrizione di che cos'è un musical, quali sono le sue origini, quali tematiche vengono affrontate e da quali numeri è composto lo spettacolo. Viene poi introdotto The Lion King con una breve descrizione del film per poi passare al "making of" del musical, abbiamo quindi una breve descrizione di scene, costumi e maschere. La terza parte è dedicata alla traduzione per la scena: vengono identificate le problematiche maggiori di questo campo della traduzione, si analizzano performability, speakability e soprattutto la singability, la caratteristica principale da tenere a mente quando si traduce un musical anche se spesso non gli viene attribuita l'importanza che merita. Viene poi introdotta la traduzione spagnola de El Rey León e del suo traduttore, Jordi Galcerán, di cui viene descritta una breve biografia in quanto il discorso è incentrato soprattutto nella sua esperienza di traduzione. L'ultima parte è l'analisi delle canzoni. Sono state selezionate sette canzoni di cui sono state analizzate nel dettaglio un minimo di due a un massimo di tre strofe. Ognuna di esse è affiancata dalla versione originale inglese in modo da avere subito chiare quali sono le differenze principali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi della risposta delle pavimentazioni flessibili alle sollecitazioni veicolari ed alle variazioni di temperatura non può prescindere dallo studio del legante bituminoso: è all’interno del film di bitume, infatti, che avviene la rottura per fatica alle basse temperature (alte frequenze di carico) e che si sviluppano le deformazioni con conseguente fenomeno dell’ormaiamento alle alte temperature di esercizio (basse frequenze di carico). Il deterioramento di queste pavimentazioni, dovuto a fenomeni di fessurazione da fatica o di ormaiamento, infatti, è divenuto nel settore infrastrutturale oggetto di studio ed approfondimento. Spesso tali ammaloramenti sono accelerati dall’azione dell’acqua che, in assenza di strati impermeabili, raggiunge gli strati inferiori della sovrastruttura indebolendo le proprietà coesive del legante e di adesione tra bitume ed aggregati. Se a queste problematiche si aggiunge l’impatto ambientale di un’infrastruttura viaria (emissione di fumi durante la stesa del conglomerato), risulta evidente l’interesse nel campo della ricerca circa lo studio di leganti bituminosi modificati e additivati, in grado di aumentare le prestazioni del pacchetto stradale, oltre che a ridurne gli effetti negativi sull’ambiente. Per queste motivazioni, la presente Tesi si concentra sullo studio dei leganti e dei mastici bituminosi ottenuti con l’aggiunta di “Powdered Rubber Modifier (PRM)” ovvero di “Polverino di Gomma” ottenuto mediante il riciclaggio di pneumatici usati, attraverso opportune lavorazioni di natura meccanica. In campo stradale sta assumendo sempre più importanza l’utilizzo di pneumatici riciclati, in grado di aumentare le prestazioni del pacchetto stradale e di ridurne gli effetti negativi sull’ambiente. Per studiare e testare questi leganti e mastici bituminosi si è scelto di utilizzare un approccio tradizionale, consistente nella simulazione della risposta meccanica macroscopica mediante modelli costitutivi basati sulla teoria del mezzo continuo: ciò significa che la miscela viene sottoposta a prove di tipo statico e dinamico in un ampio intervallo di condizioni inerenti all’intensità della forza, alla velocità di applicazione del carico ed alla temperatura. In particolare, i materiali sopra citati sono stati testati mediante Dynamic Shear Rheometer (DSR-UNI EN 14770); tale apparecchiatura è in grado, attraverso l’applicazione di una sollecitazione dinamica con andamento sinusoidale, di simulare le reali condizioni di carico cui è sottoposta una pavimentazione stradale durante la sua vita utile. I risultati reologici ottenuti sono stati confrontati per valutare il contributo prestazionale di ciascun materiale componente le miscele.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi software nati dall'esigenza di supportare agevolmente ed efficacemente il lavoro cooperativo, in particolare quelli orientati al supporto di azioni di soccorso in scenari di emergenza, appaiono tutt'ora fortemente limitati e frammentati. In molti casi vengono affrontate solamente specifiche dimensioni del problema complessivo, anche se il livello al quale è giunto lo sviluppo tecnologico e i risultati osservati in ambito di ricerca permettono di delineare soluzioni complete e significative per l'impiego in ambiti reali. Tale tipologia di sistemi è stata scelta per il grande interesse che desta sia dal punto di vista accademico, essendo costituita da molteplici sotto--sistemi spesso eterogenei che debbono necessariamente interagire e supportare l'azione umana, sia dal punto di vista industriale, interpretando la necessità crescente di iniettare nel maggior numero possibile di livelli sociali la forte dipendenza (il supporto allo stesso tempo) dalle scienze tecnologiche ed informatiche, per rafforzare e talvolta estendere le possibilità dell'essere umano in quanto tale. Dopo una prima fase in cui verrà delineato un quadro concettuale piuttosto dettagliato circa i principali elementi e problematiche che caratterizzano la classe di sistemi considerati, sarà dato spazio alla validazione di tali principi e considerazioni emerse, confrontandosi con la progettazione e sviluppo in forma prototipale di un sotto--sistema relativo ad un caso di studio reale, significativo per l'ambito di applicazione, nato dalla collaborazione con l'Università degli Studi di Bologna di un'azienda della regione Emilia--Romagna. Il sistema software realizzato vuole essere innanzi tutto la risposta alle esigenze emerse nel caso di studio trattato, in modo tale da potersi sostituire agli attuali limitati supporti alla cooperazione, ma anche un esperimento che possa essere considerato un artefatto centrale da utilizzare come base di conoscenza condivisa, in cui vengano fattorizzati i concetti e meccanismi chiave, fondamentali per sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi individua un metodo matematico per inferire alcuni eventi demografici relativi a popolazioni umane, attraverso l’analisi di dati, reali e simulati, e con strumenti di statistica e analisi numerica (Cluster Analysis, Analisi Discriminate, Analisi della varianza, Interpolazione).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni va sempre più affermandosi l’idea che nei test a fatica utilizzati in ambito industriale per testare la resistenza di numerosi prodotti, riprodurre profili vibratori con distribuzioni gaussiane non sia sufficientemente realistico. Nell’indagine sperimentale riportata in questo trattato vengono confrontati gli effetti generati da sollecitazioni leptocurtiche ottenute da misurazioni reali, con profili vibratori gaussiani a parità di RMS e forma della PSD (Power Spectral Density) verificando la validità della “Papoulis rule”. A partire da questi profili vibratori si è effettuata una progettazione ad hoc dalla quale sono stati ricavati dei provini piatti in lega di alluminio a cui è collegata una massa ausiliaria. Quest’ultimi montati a sbalzo su uno shaker elettrodinamico, sono caratterizzati da una variazione di sezione che localizza la sezione critica in prossimità dell’incastro. I provini sono stati inoltre caratterizzati attraverso prove a trazione e test accelerati a fatica, ricavandone la caratteristica a trazione del materiale ed il diagramma di Wohler. In seguito alla descrizione di tali prove viene riportata un’analisi dei provini sollecitati da due profili vibratori, uno gaussiano e uno ad elevato valore di kurtosis, monitorando tramite l’impiego di accelerometri i valori dell’eccitazione e la risposta. Vengono inoltre verificati i valori delle deformazioni dovute alle sollecitazioni imposte collocando due estensimetri in corrispondenza della sezione critica di due provini (uno per ogni tipologia di input).