999 resultados para Analisi matematica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel lavoro è stato indagata la possibilità di allagare in modo controllato aree prospicienti il fiume Montone poste più a monte rispetto alla città di Ravenna, al fine di garantirne la sicurezza idraulica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi consiste nella ricerca di un candidato ideale per la soluzione del problema di Dirichlet. Vengono affrontati gli argomenti in maniera graduale, partendo dalle funzioni armoniche e le loro relative proprietà, passando per le identità e le formule di rappresentazione di Green, per finire nell'analisi del problema sopra citato, mediante i risultati precedentemente ottenuti, per concludere trovando la formula integrale di Poisson come soluzione ma anche come formula generale per sviluppi in vari ambiti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi e stima dell'errore ionosferico per gli utenti che dispongono sia di un ricevitore a singola che a doppia frequenza e confronto conclusivo fra i due tipi di dati ricavati. Le stime sono state implementate in ambiente Matlab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi sperimentale sulla variazione di forza di serraggio in un giunto bullonato ibrido composito in fibra corta di carbonio-alluminio soggetto a condizioni ambiente ed a sollecitazioni esterne termiche e dinamiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sviluppo di un modello che fornisce l'analisi numerica dei parametri che definiscono il profilo del laminato a caldo piano e il relativo output grafico. Il modello è utilizzato per indagare l'incidenza del difetto "canale di laminazione" e per identificare le specifiche di acquisto della materia prima per l'azienda. Vengono infine proposte alcune tecniche di controllo statistico di processo, per tenere monitorate le caratteristiche della materia prima in ingresso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro descrive il programma creato in ambiante Matlab per valutare l'efficienza di impianti a vapore, a gas e combinati tramite la creazione di interfacce grafiche partendo da un'analisi teorica dei cicli termodinamici e delle prestazioni di tali sistemi. Sono stati inoltre approfonditi i componenti più significativi degli impianti e spiegate le principali funzionalità e toolboxes di Matlab che sono state utilizzate per creare il codice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi di dottorato ha ad oggetto il principio di consensualità nell’agere amministrativo, inteso quale principio generale dell’ordinamento, che regola un’azione della Pubblica amministrazione di necessità funzionalizzata al perseguimento dell’interesse pubblico. E’ pertanto sull’oscillazione problematica tra un rapporto duale e dicotomico, che ricorre tra la dimensione bilaterale dell’uso di moduli negoziali pubblico-privati aventi ad oggetto l’esercizio del potere pubblico, e la prospettiva generale e collettiva che sottintende la cura dell’interesse pubblico, che si riflette nell’elaborato. Materia di studio prescelta è, poi, il governo del territorio, settore dell’ordinamento ove più diffusamente si concludono accordi amministrativi tra Pubblica amministrazione e privati. In particolare, l’analisi è rivolta allo studio delle tanto nuove quanto problematiche fattispecie denominate accordi “a monte” delle prescrizioni urbanistiche, che rappresentano l’espressione più alta, al momento, del principio di consensualità. I problemi di ammissibilità giuridica posti da una parte della dottrina hanno richiesto una ricerca di un possibile fondamento positivo espresso per gli accordi “a monte”, anche al fine di mettere al riparo le leggi regionali che li disciplinano, da eventuali dubbi di legittimità costituzionale. Tale ricerca è stata condotta anche attraverso l’ausilio del diritto comparato. E’ così, stato possibile riscontrare anzitutto l’esistenza del principio di consensualità in un numero considerevole di Paesi, salve alcune eccezioni, alla cui analisi è stato dedicato ampio spazio di trattazione (in particolare, la Francia). Per altro verso, le analoghe esperienze giuridiche provenienti da altri Stati europei (in particolare, la Spagna) sono state d’ausilio per la finale elaborazione di un possibile modello di procedimento per la conclusione degli accordi “a monte”; mentre la constatazione di comuni giustificazioni dottrinali ha permesso l’elaborazione di una nuova possibile natura giuridica da riconoscere agli accordi in parola (accordi normativi) e la definizione di precise ricadute pratiche e giuridiche quanto al rapporto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi, in collaborazione con il Maggiore Donghi del reparto di Balistica del RIS di Parma, individua un metodo statistico di descrizione della popolazione di particelle residue dello sparo, attraverso numerose sperimentazioni effettuate con inneschi innovativi. Lo studio propone la comparazione degli inneschi utilizzati e i successivi confronti tra i GSR rinvenuti sulle mani dello sparatore e le famiglie di inneschi utilizzati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi esplora la riflessione bioetica latino-americana e la sua evoluzione, valutandone i legami, intenzionali e non, con le posizioni bioetiche più consolidate e tendenzialmente dominanti del panorama internazionale. La trattazione indaga lo sviluppo della bioetica nel sub-continente latinoamericano, ponendo in evidenza lo sviluppo delle teorie morali che definiscono l'orizzonte interpretativo del dibattito contemporaneo, come pure le peculiarità della produzione sudamericana in materia di bioetica e la casistica tipica di questi territori. Per una comprensione delle caratteristiche di un pensiero bioetico, tipico di un territorio in via di sviluppo, la tesi presenta la trattazione di due precisi case studies: A- Il progetto peruviano: Propuesta de incorporación del enfoque intercultural y de representantes indígenas en los comités de ética en países multiculturales; B- La biomedicina e gli xenotrapianti in Messico. L'analisi dei casi studio è funzionale alla messa in luce delle caratteristiche costitutive del pensiero latinoamericano e della casistica tipica del territorio. La bioetica Latinoamericana, infatti, sviluppatasi circa con vent'anni di ritardo rispetto ai luoghi di nascita di questa disciplina (Gran Bretagna e USA), rivendica l'esigenza di un dibattito e di una prassi bioetica autoctone, capaci quindi di riassumere in sé stesse concetti e principi declinabili all'interno delle esperienze e delle concrete esigenze che prendono forma nella realtà culturale e socio-economica. Per questo motivo si discosta dalle cosiddette teorie bioetiche classiche rivendicando una bioetica di contestazione che si vincola costitutivamente al linguaggio dei diritti umani. La tesi propone inoltre l'utilizzo dei dati emersi dai casi studio per sviluppare una riflessione sulle modalità e su alcuni esiti della globalizzazione della bioetica. L’analisi si avvale di strumenti e categorie proprie della sociologia, dell’economia e della politica al fine di mettere in evidenza le diverse componenti costitutive e le criticità della bioetica globalizzata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi comprende la ricerca sui materiali provenienti dagli scavi britannici, avvenuti fra il 1911 e il 1920, del sito di Karkemish (Gaziantep - Turchia). Vengono qui studiati gli oggetti (a eccezione delle sculture) databili all’Età del Bronzo e del Ferro, che sono nella quasi totalità inediti. Si sono prese in considerazione i reperti attualmente conservati al British Museum di Londra, nei Musei Archeologici di Istanbul e al Museo delle Civiltà Anatoliche di Ankara.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A 7 anni dall’avvio dell’ attuazione della Politica di Coesione dell’Unione Europea 2007- 2013, l’Italia ha il tasso di assorbimento dei Fondi Strutturali più basso d’Europa, insieme alla Romania, e rischia di subire un disimpegno delle risorse, che rappresenterebbe un gravissimo fallimento economico e politico. Il contributo di questo lavoro al dibattito sull’uso dei Fondi strutturali in Italia è duplice. Da una parte, per la prima volta, si propone uno studio sistematico delle criticità nella gestione del periodo 2007-2013, che hanno causato l’attuale ritardo nella spesa. Dall’altra, si affronta il problema italiano sia da una prospettiva europea sia nella sua dimensione nazionale, indagando le differenze regionali nella performance di spesa e proponendo un’analisi basata su tre dimensioni principali delle criticità: finanziaria, politica, amministrativa. L’approccio della ricerca consiste nella convergenza di dati quantitativi e qualitativi, raccolti durante un periodo di ricerca a Bruxelles e presso le Autorità di Gestione dei Programmi Operativi cofinanziati dal FESR. La questione dell’assorbimento finanziario e del ritardo nell’attuazione è stata indagata da tre punti di vista. Una prospettiva “storica”, che ha raccontato il ritardo strutturale nell’utilizzo dei Fondi Strutturali in Italia e che ha chiarito come il problema italiano, prima dell’attuale ciclo 2007-2013, sia stato non di quantità, ma di qualità della spesa. La seconda prospettiva è stata di respiro europeo, ed è servita a indagare le cause del basso livello di assorbimento finanziario dell’Italia suggerendo alcuni elementi utili a comprendere le ragioni di un simile divario con gli altri Paesi. Infine, la prospettiva nazionale e regionale ha svelato l’esistenza di un mix complesso, e micidiale, che ha letteralmente paralizzato la spesa italiana dei Fondi. Un mix di fattori finanziari, politici e amministrativi che non ha avuto eguali negli altri Paesi, e che si è concentrato soprattutto, ma non esclusivamente, nelle regioni dell’Obiettivo Convergenza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.