368 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni le Web application stanno assumendo un ruolo sempre più importante nella vita di ognuno di noi. Se fino a qualche anno fa eravamo abituati ad utilizzare quasi solamente delle applicazioni “native”, che venivano eseguite completamente all’interno del nostro Personal Computer, oggi invece molti utenti utilizzano i loro vari dispositivi quasi esclusivamente per accedere a delle Web application. Grazie alle applicazioni Web si sono potuti creare i cosiddetti social network come Facebook, che sta avendo un enorme successo in tutto il mondo ed ha rivoluzionato il modo di comunicare di molte persone. Inoltre molte applicazioni più tradizionali come le suite per ufficio, sono state trasformate in applicazioni Web come Google Docs, che aggiungono per esempio la possibilità di far lavorare più persone contemporanemente sullo stesso documento. Le Web applications stanno assumendo quindi un ruolo sempre più importante, e di conseguenza sta diventando fondamentale poter creare delle applicazioni Web in grado di poter competere con le applicazioni native, che siano quindi in grado di svolgere tutti i compiti che sono stati sempre tradizionalmente svolti dai computer. In questa Tesi ci proporremo quindi di analizzare le varie possibilità con le quali poter migliorare le applicazioni Web, sia dal punto di vista delle funzioni che esse possono svolgere, sia dal punto di vista della scalabilità. Dato che le applicazioni Web moderne hanno sempre di più la necessità di poter svolgere calcoli in modo concorrente e distribuito, analizzeremo un modello computazionale che si presta particolarmente per progettare questo tipo di software: il modello ad Attori. Vedremo poi, come caso di studio di framework per la realizzazione di applicazioni Web avanzate, il Play framework: esso si basa sulla piattaforma Akka di programmazione ad Attori, e permette di realizzare in modo semplice applicazioni Web estremamente potenti e scalabili. Dato che le Web application moderne devono avere già dalla nascita certi requisiti di scalabilità e fault tolerance, affronteremo il problema di come realizzare applicazioni Web predisposte per essere eseguite su piattaforme di Cloud Computing. In particolare vedremo come pubblicare una applicazione Web basata sul Play framework sulla piattaforma Heroku, un servizio di Cloud Computing PaaS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone come obiettivo l'analisi delle componenti di sollecitazione statica di un serbatoio, in acciaio API 5L X52, sottoposto a carichi di flessione e pressione interna attraverso il programma agli elementi finiti PLCd4, sviluppato presso l'International Center for Numerical Methods in Engineering (CIMNE - Barcelona). Questo tipo di analisi rientra nel progetto europeo ULCF, il cui traguardo è lo studio della fatica a bassissimo numero di cicli per strutture in acciaio. Prima di osservare la struttura completa del serbatoio è stato studiato il comportamento del materiale per implementare all'interno del programma una nuova tipologia di curva che rappresentasse al meglio l'andamento delle tensioni interne. Attraverso il lavoro di preparazione alla tesi è stato inserito all'interno del programma un algoritmo per la distribuzione delle pressioni superficiali sui corpi 3D, successivamente utilizzato per l'analisi della pressione interna nel serbatoio. Sono state effettuate analisi FEM del serbatoio in diverse configurazioni di carico ove si è cercato di modellare al meglio la struttura portante relativa al caso reale di "full scale test". Dal punto di vista analitico i risultati ottenuti sono soddisfacenti in quanto rispecchiano un corretto comportamento del serbatoio in condizioni di pressioni molto elevate e confermano la bontà del programma nell'analisi computazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore del polmone rappresenta la prima causa di morte nei paesi industrializzati. Le possibilità di trapianto ed intervento chirurgico risultano molto limitate pertanto lo standard di cura risulta essere la radioterapia, a volte abbinata alla chemioterapia. Sebbene trattando radioterapicamente il tumore si ottengano ottimi risultati, attualmente non esistono solide linee guida per la personalizzazione del trattamento al paziente. Il poter eseguire in laboratorio test radioterapici su un elevato numero di campioni risulterebbe un valido approccio sperimentale d’indagine, ma la carenza di materiale su cui poter condurre gli esperimenti limita questa possibilità. Tipicamente, per ovviare al problema vengono utilizzati sferoidi multicellulari tridimensionali creati in laboratorio partendo da singole cellule del tumore in esame. In particolare, l’efficacia del trattamento viene tipicamente correlata alla riduzione volumetrica media stimata utilizzando un set di sferoidi teoricamente identici. In questo studio vengono messe in discussione la validità delle affermazioni tipicamente sostenute attraverso l’analisi di volumi medi. Abbiamo utilizzando un set di circa 100 sferoidi creati in laboratorio partendo da singole cellule di carcinoma epidermoidale polmonare e trattati secondo sette differenti modalità di trattamento radioterapico (variando intensità di radiazione e numero di frazioni). In una prima fase abbiamo analizzato le singole immagini, acquisite al microscopio ottico circa ogni 48 ore, per identificare features morfometriche significative da affiancare all’analisi volumetrica. Sulla base dell’andamento temporale di queste features abbiamo suddiviso gli sferoidi in sottoclassi con evoluzioni completamente differenti che fanno supporre un differente “stato” biologico. Attraverso algoritmi di estrazione di features e classificazione e analizzando riduzione volumetrica, grado di frastagliatura del bordo e quantità di cellule liberate nel terreno di coltura abbiamo definito un protocollo per identificare in maniera automatica le sottopopolazioni di sferoidi. Infine, abbiamo ricercato con successo alcune features morfometriche in grado di predire, semplicemente analizzando immagini acquisite nei giorni seguenti all’ultimo trattamento, lo “stato di salute” del tumore a medio/lungo periodo. Gli algoritmi realizzati e le features identificate se opportunamente validate potrebbero risultare un importante strumento non invasivo di ausilio per il radioterapista per valutare nel breve periodo gli effetti a lungo periodo del trattamento e quindi poter modificare parametri di cura al fine di raggiungere uno stato desiderato del tumore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore al seno è il più comune tra le donne nel mondo. La radioterapia è comunemente usata dopo la chirurgia per distruggere eventuali cellule maligne rimaste nel volume del seno. Nei trattamenti di radioterapia bisogna cercare di irradiare il volume da curare limitando contemporaneamente la tossicità nei tessuti sani. In clinica i parametri che definiscono il piano di trattamento radioterapeutico sono selezionati manualmente utilizzando un software di simulazione per trattamenti. Questo processo, detto di trial and error, in cui i differenti parametri vengono modificati e il trattamento viene simulato nuovamente e valutato, può richiedere molte iterazioni rendendolo dispendioso in termini di tempo. Lo studio presentato in questa tesi si concentra sulla generazione automatica di piani di trattamento per irradiare l'intero volume del seno utilizzando due fasci approssimativamente opposti e tangenti al paziente. In particolare ci siamo concentrati sulla selezione delle direzioni dei fasci e la posizione dell'isocentro. A questo scopo, è stato investigata l'efficacia di un approccio combinatorio, nel quale sono stati generati un elevato numero di possibili piani di trattamento utilizzando differenti combinazioni delle direzioni dei due fasci. L'intensità del profilo dei fasci viene ottimizzata automaticamente da un algoritmo, chiamato iCycle, sviluppato nel ospedale Erasmus MC di Rotterdam. Inizialmente tra tutti i possibili piani di trattamento generati solo un sottogruppo viene selezionato, avente buone caratteristiche per quel che riguarda l'irraggiamento del volume del seno malato. Dopo di che i piani che mostrano caratteristiche ottimali per la salvaguardia degli organi a rischio (cuore, polmoni e seno controlaterale) vengono considerati. Questi piani di trattamento sono matematicamente equivalenti quindi per selezionare tra questi il piano migliore è stata utilizzata una somma pesata dove i pesi sono stati regolati per ottenere in media piani che abbiano caratteristiche simili ai piani di trattamento approvati in clinica. Questo metodo in confronto al processo manuale oltre a ridurre considerevol-mente il tempo di generazione di un piano di trattamento garantisce anche i piani selezionati abbiano caratteristiche ottimali nel preservare gli organi a rischio. Inizialmente è stato utilizzato l'isocentro scelto in clinica dal tecnico. Nella parte finale dello studio l'importanza dell'isocentro è stata valutata; ne è risultato che almeno per un sottogruppo di pazienti la posizione dell'isocentro può dare un importante contributo alla qualità del piano di trattamento e quindi potrebbe essere un ulteriore parametro da ottimizzare. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una 3-varietà si dice virtualmente fibrata se ammette un rivestimento finito che è un fibrato con base una circonferenza e fibra una superficie. In seguito al lavoro di geometrizzazione di Thurston e Perelman, la generica 3-varietà risulta essere iperbolica; un recente risultato di Agol afferma che una tale varietà è sempre virtualmente fibrata. L’ingrediente principale della prova consiste nell’introduzione, dovuta a Wise, dei complessi cubici nello studio delle 3-varietà iperboliche. Questa tesi si concentra sulle proprietà algebriche e geometriche di queste strutture combinatorie e sul ruolo che esse hanno giocato nella dimostrazione del Teorema di Fibrazione Virtuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato riguarda uno specifico attacco all'RSA tramite teoremi sui reticoli elaborato da Coppersmith. Dopo una breve introduzione sulla crittografia simmetrica e asimettrica, cioè a chiave pubblica, vengono definiti i reticoli, basi di reticoli, basi ridotte, l'algoritmo LLL. In seguito viene mostrato come applicare quest'ultimo algoritmo nella risoluzione di equazioni modulari ad una variabili e le sue applicazioni come attacco all'RSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene considerato il problema dei trasporti con costi fissi (FCTP) che, assieme al Traveling Salesman Problem (TSP), è uno dei problemi nobili dell’ottimizzazione combinatoria. Esso generalizza il ben noto problema dei trasporti (TP) imponendo che il costo per spedire prodotti da un’origine ad una destinazione sia composto da un costo fisso ed un costo proporzionale alla quantità spedita. Il FCTP è stato formulato per la prima volta in un articolo di Hirsch e Dantzig (1968) ed è stato da allora oggetto di studio per la ricerca di nuovi e sempre migliori algoritmi di risoluzione. Nessuno dei metodi esatti fin ora pubblicati è in grado di risolvere istanze con più di 15 origini e 15 destinazioni. Solo recentemente, Roberti et al. (2013), in un paper in corso di pubblicazione, hanno presentato un metodo esatto basato su una nuova formulazione matematica del problema, il quale è in grado di risolvere istanze di FCTP con 70 origini e 70 destinazioni. La crescita esponenziale dello sforzo computazionale richiesto dai metodi esatti ne ha confinato l’applicazione a problemi di dimensioni ridotte. Tali limitazioni hanno portato allo studio e alla ricerca di approcci approssimativi, euristici e metaeuristici i quali sfruttano varie strategie di local search. Fra i molteplici metodi euristici presentati in letteratura, meritano particolare attenzione quelli di Sun et al. (1998) e Glover et al. (2005). Recentemente, Buson et al. (2013) hanno presentato un nuovo euristico che domina tutti i precedenti sui problemi test proposti in letteratura. In questa tesi viene presentato un approccio Tabu Search che migliora il metodo originalmente proposto da Sun et al. (1998). I risultati computazionali ottenuti con un codice prototipale indicano che l’algoritmo sviluppato è migliore del metodo originario di Sun et al. (1998) e competitivo con il più recente metodo proposto da Buson et al. (2013).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto e dimensionamento di una poltrona ad inseguimento solare. Scelta del meccanismo da adottare per la movimentazione automatica dello schienale e della seduta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi presenta lo sviluppo di un sistema di controllo e gestione remota per il tracking di un satellite. Il progetto, denominato ALMATracker, è sviluppato dal corso di Ingegneria Aerospaziale della scuola di Ingegneria e Architettura Aerospaziale dell’Università di Bologna con sede a Forlì. Consiste nella creazione di una motorizzazione per antenne su due assi, movimentata da un hardware commerciale programmabile. Il posizionamento può essere eseguito sia manualmente, su richiesta di un utente da PC remoto, sia automaticamente secondo un’orbita preimpostata. I setpoint di velocità o posizione sono elaborati dal sistema fino ad ottenere un segnale che procede alla movimentazione in velocità dell’antenna. Il comando automatico, invece, orienta l’antenna in modo tale da mantenerla fissa su una traiettoria orbitale di uno specifico spacecraft. La movimentazione automatica segue funzioni polinomiali fornite dall’utente, ricavate da software di propagazione e predizione esterno al sistema ALMATracker. In questo caso il sistema deve procedere alla rotazione mantenendo la velocità richiesta dalla funzione polinomiale. Il controllo effettuato in catena chiusa è attuato tramite una serie di trasduttori di posizione presenti nel sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche.