990 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi riguarda lo studio e la realizzazione dei principali algoritmi di rappresentazione e modellazione di superfici T-Spline. In particolare si è cercato di determinare i vantaggi e gli svantaggi che queste superfici presentano rispetto alle superfici NURBS, utilizzate nei software CAD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi si descrive un metodo di ottimizzazione per una strategia di copertura di un derivato replicabile in un modello di mercato completo nel caso in cui il valore iniziale della stessa fosse inferiore al valore iniziale del prezzo di arbitraggio del derivato considerato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente dissertazione investiga la possibilità di ottimizzare l’uso di energia a bordo di una nave per trasporto di prodotti chimici e petrolchimici. Il software sviluppato per questo studio può essere adattato a qualsiasi tipo di nave. Tale foglio di calcolo fornisce la metodologia per stimare vantaggi e miglioramenti energetici, con accuratezza direttamente proporzionale ai dati disponibili sulla configurazione del sistema energetico e sui dispositivi installati a bordo. Lo studio si basa su differenti fasi che permettono la semplificazione del lavoro; nell’introduzione sono indicati i dati necessari per svolgere un’accurata analisi ed è presentata la metodologia adottata. Inizialmente è fornita una spiegazione sul layout dell’impianto, sulle sue caratteristiche e sui principali dispositivi installati a bordo. Vengono dunque trattati separatamente i principali carichi, meccanico, elettrico e termico. In seguito si procede con una selezione delle principali fasi operative della nave: è seguito tale approccio in modo da comprendere meglio la ripartizione della richiesta di potenza a bordo della nave e il suo sfruttamento. Successivamente è svolto un controllo sul dimensionamento del sistema elettrico: ciò aiuta a comprendere se la potenza stimata dai progettisti sia assimilabile a quella effettivamente richiesta sulla nave. Si ottengono in seguito curve di carico meccanico, elettrico e termico in funzione del tempo per tutte le fasi operative considerate: tramite l’uso del software Visual Basic Application (VBA) vengono creati i profili di carico che possono essere gestiti nella successiva fase di ottimizzazione. L’ottimizzazione rappresenta il cuore di questo studio; i profili di potenza ottenuti dalla precedente fase sono gestiti in modo da conseguire un sistema che sia in grado di fornire potenza alla nave nel miglior modo possibile da un punto di vista energetico. Il sistema energetico della nave è modellato e ottimizzato mantenendo lo status quo dei dispositivi di bordo, per i quali sono considerate le configurazioni di “Load following”, “two shifts” e “minimal”. Una successiva investigazione riguarda l’installazione a bordo di un sistema di accumulo di energia termica, così da migliorare lo sfruttamento dell’energia disponibile. Infine, nella conclusione, sono messi a confronto i reali consumi della nave con i risultati ottenuti con e senza l’introduzione del sistema di accumulo termico. Attraverso la configurazione “minimal” è possibile risparmiare circa l’1,49% dell’energia totale consumata durante un anno di attività; tale risparmio è completamente gratuito poiché può essere raggiunto seguendo alcune semplici regole nella gestione dell’energia a bordo. L’introduzione di un sistema di accumulo termico incrementa il risparmio totale fino al 4,67% con un serbatoio in grado di accumulare 110000 kWh di energia termica; tuttavia, in questo caso, è necessario sostenere il costo di installazione del serbatoio. Vengono quindi dibattuti aspetti economici e ambientali in modo da spiegare e rendere chiari i vantaggi che si possono ottenere con l’applicazione di questo studio, in termini di denaro e riduzione di emissioni in atmosfera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione e principio della generazione fotovoltaica. Studio dei convertitori DC/DC, con particolare attenzione al convertitore di tipo SEPIC. Analisi degli algoritmi di MPPT. Verifica di alcune casistiche pratiche su impianti fotovoltaici di tipo stand alone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della tesi è analizzare e testare i principali approcci di Machine Learning applicabili in contesti semantici, partendo da algoritmi di Statistical Relational Learning, quali Relational Probability Trees, Relational Bayesian Classifiers e Relational Dependency Networks, per poi passare ad approcci basati su fattorizzazione tensori, in particolare CANDECOMP/PARAFAC, Tucker e RESCAL.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso di questa tesi si svilupperà il metodo del Beam-forming acustico, uno dei più semplici algoritmi di elaborazione segnale che permette di isolare spazialmente un suono proveniente da una precisa direzione decisa da noi, creando quindi un microfono super-direzionale orientabile a partire da un array microfonico di caratteristiche note. Inoltre si implementerà in modo pratico l'algoritmo per descrivere il livello sonoro emesso da ogni punto di una sorgente sonora estesa in modo da mappare l'intensità di quest'ultima in un'immagine 2D da sovrapporre all'immagine stessa dell'oggetto. Volendo schematizzare in breve questa tesi, essa è composta da una prima parte teorica contenente gli argomenti che ci servono per descrivere lo spazio acustico e le onde acustiche, una seconda parte riguardante i microfoni e i suoi vari parametri, una terza parte riguardante la teoria sull'elaborazione segnale nel dominio del tempo e delle frequenze e in particolare cenni sulla trasformata di Fourier. Nella parte successiva verranno descritti i due principali metodi di Beam-forming acustico trattando sia gli apparati di misura sia i due algoritmi, facendo sempre riferimento alle parti di teoria necessarie alla spiegazione del metodo. Infine nell'ultima parte della tesi verrà discusso in primo luogo la creazione del microfono virtuale, in particolare parleremo della sua sensibilità in funzione della direzione avvalendoci di uno schema che in letteratura viene denominato Beam-pattern, in secondo luogo parleremo di come creare la mappa 2D dove effettivamente possiamo vedere l'intensità sonora dell'onda proveniente da ogni punto dell'oggetto preso in considerazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo sviluppo di un’interfaccia Web per un software di ottimizzazione, il cui scopo è la definizione dell’orario delle lezioni universitarie. Presenteremo il modello risolutivo al problema del timetabling proposto da Daskalaki et alii, e lo adatteremo alle esigenze della facoltà di Informatica dell’Università di Bologna. In effetti, la necessità di costituire un software atto alla risoluzione del problema dell’orario universitario rappresenta il tema principale trattato in questa tesi, che si ripropone, oltretutto, la costruzione di un’interfaccia grafica accattivante e intuitiva, che possa agevolmente essere utilizzata da docenti e personale di segreteria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

il ruolo della tesi è stato di valorizzare attraverso la valutazione di un peso l'urgenza e la necessità di cure dei pazienti processati da un modello di ottimizzazione. Essa si inserisce all'interno di un progetto di creazione di tale modello per la schedulazione di interventi in un reparto chirurgico di un generico ospedale.si è fatto uso del software ibm opl optimization suite.