664 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio del coefficiente di resistenza aerodinamica, della potenza aerodinamica e del comportamento in caso di raffica di vento laterale, su un modello del restyling della vettura Astura, disegnato in SolidWorks. Attraverso le simulazioni in una galleria del vento fittizia realizzata in Flow Simulation si è ottenuta la resistenza aerodinamica del modello. Da questa è stato possibile ottenere il valore del coefficiente di resistenza e la potenza aerodinamica assorbita. Il coefficiente di resistenza è stato confrontato con quello di veicoli presenti sul mercato. Si è poi studiato il comportamento della vettura in caso di raffica laterale, ricorrendo all'ellisse di aderenza degli pneumatici e verificando che la stabilità con raffiche fino a 150 km/h non venga compromessa. Lo stesso stuido è stato fatto nel caso in cui si inizi una frenata sempre sotto l'influenza di una raffica laterale; si è visto che, al fine di non perdere aderenza, lo spazio di frenata deve aumentare. Si è quindi calcolato lo spazio minimo necessario per la frenata, in presenza di una raffica di 150 km/h, senza che si verifichi una perdita di aderenza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ogni giorno enormi quantità di dati sono prodotti come record dettagliati del comportamento di utilizzo del Web, ma l'obiettivo di trarne conoscenza rimane ancora una sfida. In questa trattazione viene descritto EOP(Eye-On-Portal), un framework di monitoring che si propone come strumento per riuscire a catturare informazioni dettagliate sulle componenti della pagina visitata dall'utente e sulle interazioni di quest'ultimo con il portale: i dati raccolti potrebbero avere utilità nell'ottimizzazione del layout e nell'usabilità del portale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this dissertation is to propose a translation from English into Italian of The Family Law, an autobiographical novel written by Benjamin Law, an Australian author of Cantonese origins. The present dissertation is divided into four chapters. The first chapter presents the author of the book, by providing his biography; in addition, the chapter contains an overview of the Australia immigration problem, which is an important issue in the book due to the fact that the author’s parents had moved from Hong Kong to Caloundra, Australia. The second chapter presents the book The Family Law, by focusing on its main themes and by paying special attention to the description of the characters; furthermore, it analyses the plot of the chapters which I decided to translate, and provides a selection of Italian publishers which might be interested in publishing the book. The third chapter consists of my translation of the chapters I selected. The final chapter analyses the strategies I adopted while translating and examines some of the problematic issues that I encountered during the translation process, in particular at the level of morphosyntax, lexicon, cultural references, and style.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This dissertation is aimed at analysing deeply and thoroughly the most significant topics and features reflected in the Latin American literary work of Alberto Manzi. His almost thirty years of travelling and volunteering in the indigenous communities of South America formed a background of knowledge and experiences, which turned out to be crucial for the genesis of his Latin American trilogy. In the light of this, not only are ‘La luna nelle baracche’, ‘El loco’ and ‘E venne il sabato’ a speaking testimony of Manzi’s life and inner development, but they also offer a privileged perspective on the social, historical and religious situation of the people of Latin America. For a better understanding of the books, chapter one provides an extensive historical and economic commentary stretching over a century, from the collapse of the Spanish Empire to the rise of modern dictatorships in the late ‘70s, and the long democratic transition of the ‘80s. As far as the religious background is concerned, it is important to mention the influence of the liberation theology in the shaping of Manzi’s revolutionary thought. Indeed, chapter two identifies the precursors of the liberation theology, considers the effects of the Second Vatican Council on Latin America’s Catholic Church, and presents the methodology and the most powerful intuitions of the liberation theology. Finally, chapter three employs a critical analysis of Manzi’s Latin American trilogy, which focuses on his personal journal of his time in the austral continent, and Sonia and Giulia Manzi’s testimony published in a book entitled ‘Non è mai troppo tardi’. Chapter three provides an in-depth analysis of the evolution of the author’s revolutionary thought and plot dynamics; it discusses the psychological profile of the characters, the cultural features of the indigenous traditions, and the author’s urge to involve the readership in a permanent process of self-questioning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con questo lavoro di tesi si affrontano i primi accorgimenti sperimentali necessari alla realizzazione di un esperimento di ottica quantistica. L'attività svolta consiste nell'ottimizzazione dei parametri di un PLL (Phase-Locked Loop) che mantiene due laser agganciati in frequenza, e nella misura del rumore di fase presente nell'aggancio. Questa stabilizzazione costituisce il primo passo per la generazione di luce squeezed, associata a particolari stati del campo elettromagnetico. Grazie a quest'ultima, è possibile migliorare la sensibilità raggiungibile in esperimenti di interferometria di precisione, quali ad esempio quelli per la ricerca di onde gravitazionali. L'iniezione di luce squeezed costituirà infatti parte del prossimo upgrade dell'interferometro di Virgo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna