5 resultados para Ressource allocation
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Classic group recommender systems focus on providing suggestions for a fixed group of people. Our work tries to give an inside look at design- ing a new recommender system that is capable of making suggestions for a sequence of activities, dividing people in subgroups, in order to boost over- all group satisfaction. However, this idea increases problem complexity in more dimensions and creates great challenge to the algorithm’s performance. To understand the e↵ectiveness, due to the enhanced complexity and pre- cise problem solving, we implemented an experimental system from data collected from a variety of web services concerning the city of Paris. The sys- tem recommends activities to a group of users from two di↵erent approaches: Local Search and Constraint Programming. The general results show that the number of subgroups can significantly influence the Constraint Program- ming Approaches’s computational time and e�cacy. Generally, Local Search can find results much quicker than Constraint Programming. Over a lengthy period of time, Local Search performs better than Constraint Programming, with similar final results.
Resumo:
La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.
Resumo:
Il presente lavoro mette in evidenza le principali difficoltà che il traduttore di testi specialistici è chiamato ad affrontare durante la pratica della traduzione. In particolar modo, il nostro studio si concentra sulla figura del traduttore che lavora in ambito artistico : oggigiorno la facilità degli spostamenti e il conseguente aumento del turismo culturale hanno reso la traduzione di dépliant, guide turistiche e cataloghi una pratica necessaria e in continua crescita. L’obiettivo prefissato è quello di verificare l’apporto che le risorse lessicografiche e terminologiche attualmente disponibili danno al traduttore di testi a contenuto artistico. Il nostro lavoro si articola in quattro capitoli. Il primo, di stampo teorico, pone l’accento sulla natura polisemica della parola terminologia (disciplina, metodologia e insieme di termini appartenenti ad un ambito specialistico) e sulla distinzione tra pratica terminologica e traduttiva gettando le basi del secondo capitolo che, partendo dall'esposizione degli ostacoli terminologici incontrati dal traduttore, descrive le lacune dei principali dizionari bilingui italiano-francese e delle basi di dati terminologiche oggi a disposizione. Il terzo capitolo, dedicato alla presentazione del progetto Lessico multilingue dei beni culturali (LBC), ne evidenzia i punti di forza e sottolinea la necessità di creare degli strumenti “ibridi”, concepiti per aiutare il traduttore in ambito artistico. Questa conclusione sarà ulteriormente ribadita nel quarto capitolo, di stampo pratico : l’analisi di una quindicina di termini dell’ambito della scultura (estratti dal corpus de La Vita di Michelangelo, appositamente creato nell'ambito del progetto LBC) mostra l’eccessivo numero di strumenti che il traduttore è costretto a consultare per risolvere adeguatamente le difficoltà incontrate, pratica che non rispecchia più il mestiere della traduzione, all'interno della società dell’informazione, sempre più influenzato dalle scadenze imposte.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
Al giorno d'oggi il reinforcement learning ha dimostrato di essere davvero molto efficace nel machine learning in svariati campi, come ad esempio i giochi, il riconoscimento vocale e molti altri. Perciò, abbiamo deciso di applicare il reinforcement learning ai problemi di allocazione, in quanto sono un campo di ricerca non ancora studiato con questa tecnica e perchè questi problemi racchiudono nella loro formulazione un vasto insieme di sotto-problemi con simili caratteristiche, per cui una soluzione per uno di essi si estende ad ognuno di questi sotto-problemi. In questo progetto abbiamo realizzato un applicativo chiamato Service Broker, il quale, attraverso il reinforcement learning, apprende come distribuire l'esecuzione di tasks su dei lavoratori asincroni e distribuiti. L'analogia è quella di un cloud data center, il quale possiede delle risorse interne - possibilmente distribuite nella server farm -, riceve dei tasks dai suoi clienti e li esegue su queste risorse. L'obiettivo dell'applicativo, e quindi del data center, è quello di allocare questi tasks in maniera da minimizzare il costo di esecuzione. Inoltre, al fine di testare gli agenti del reinforcement learning sviluppati è stato creato un environment, un simulatore, che permettesse di concentrarsi nello sviluppo dei componenti necessari agli agenti, invece che doversi anche occupare di eventuali aspetti implementativi necessari in un vero data center, come ad esempio la comunicazione con i vari nodi e i tempi di latenza di quest'ultima. I risultati ottenuti hanno dunque confermato la teoria studiata, riuscendo a ottenere prestazioni migliori di alcuni dei metodi classici per il task allocation.