523 resultados para GPGPU, CUDA, OpenCL, Programmazione Parallela
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.
Resumo:
L'oggetto del mio studio sono i contenuti televisivi (pubblicità, programmi, promozioni televisive) che accompagnano i film archiviati nelle videocassette contenute nell'archivio della videoteca del Dipartimento delle Arti. Una prima fase del lavoro, di natura pratica, mi ha fisicamente portato in videoteca per studiare un campione di più di 2500 videocassette in poco più di un mese e raccogliere dati relativi a quali contenuti di natura televisiva vi si presentassero insieme al film archiviato. Ho visionato e censito, con la supervisione del dott. Gianmario Merizzi, circa 1800 cassette VHS, corrispondenti alla filmografia italiana e francese, raccolte e registrate in un periodo compreso tra gli anni '80 e i primi 2000. Dopo aver raccolto tutte le informazioni utili, ho eseguito un'analisi palinsestuale e pubblicitaria su un campione ridotto di 7 videocassette scelte secondo criteri ben precisi. L'analisi palinsestuale, con il supporto del correlatore, il prof. Luca Barra, ha rivelato i cambiamenti delle strategie di programmazione messe in atto dalle reti in risposta ai cambiamenti normativi, tecnologici e competitivi che hanno segnato la TV italiana negli anni '80 e '90; L'analisi pubblicitaria ha preso in esame i 25 messaggi pubblicitari contenuti nei 7 volumi approfonditi, descrivendone le dinamiche sia del messaggio pubblicitario stesso, sia di come questo si contestualizza all'interno della programmazione televisiva. Infine, ho dedicato un capitolo al valore archivistico dei contenuti della videoteca, raccogliendo le testimonianze del dott. Gianmario Merizzi e della dott.ssa Michela Giorgi, i quali mi hanno aiutato a ricostruire i momenti salienti della costituzione dell'archivio e a riflettere sul futuro incerto che questi servizi oggi affrontano, in un presente sempre più virtuale e ipermediato.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.
Resumo:
L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.
Resumo:
L'elaborato in questione fa riferimento all’implementazione di un codice di simulazione gara, tenutasi all'Autodromo di Imola, di un veicolo solare applicato al caso Italian Solar Challenge. Per avere la possibilità di effettuare scelte strategiche sulla conduzione di gara, si è voluto creare un programma che fosse in grado di modellare: il veicolo designato per questa competizione, la produzione di energia generata dai pannelli solari, il comportamento della batteria; inoltre, che permettesse anche di integrare il regolamento per la restituzione del punteggio finale, di considerare il tracciato nel quale la competizione si svolge e di aver un tempo di calcolo limitato e contemporaneamente avere un’adeguata accuratezza.
Resumo:
Lo scopo di questo lavoro è lo sviluppo, mediante il linguaggio di programmazione Python, di un applicativo per il calcolo e la visualizzazione di frequenze naturali per strutture e cavità. L’applicativo consiste di un’interfaccia grafica e di una libreria nella quale si trovano le diverse tipologie di strutture e cavità presenti in letteratura. I vari sistemi possono essere vincolati da diverse condizioni al contorno e sono inoltre costituiti da materiali isotropi, nel caso di strutture, e fluidi, nel caso di cavità. La prima parte del lavoro comprende la codifica delle soluzioni analitiche per l’analisi modale. La seconda fase è, invece, incentrata sulla validazione del codice, utilizzando un software commerciale per la comparazione di frequenze naturali e forme dei modi.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.
Resumo:
L'utilizzo del Piano del Parto nelle strutture consultoriali e ospedaliere dell'area di Bologna. Analisi quali-quantitativa INTRODUZIONE: Il piano del parto è uno strumento di comunicazione scritto dalle donne in gravidanza in cui sono delineati i desideri e le preferenze della donna circa l’esperienza del travaglio e del parto. L’obiettivo di questa ricerca è quello di approfondire la conoscenza e il pensiero degli operatori, nella realtà dei consultori e delle sale parto dell’area di Bologna, in merito al piano del parto MATERIALI E METODI: Per rispondere alla domanda di ricerca sono stati realizzati due questionari online. Il primo questionario è stato somministrato alle ostetriche dei consultori per approfondire il momento della proposta e della redazione del piano del parto. Il secondo è stato somministrato alle ostetriche delle sale parto per comprendere le reazioni e il pensiero degli operatori in merito alla presentazione del piano del parto all’ingresso della donna in sala travaglio RISULTATI: Dalle risposte ai questionari è emerso che il piano del parto è uno strumento ampiamente utilizzato nei consultori, e che viene redatto in autonomia dalla donna. Le ostetriche delle sale parto tengono conto dei bisogni espressi nel piano del parto, ma non mancano delle critiche, legate principalmente alla disinformazione delle donne dovuta all’assenza di un professionista che funga loro da guida durante la sua stesura CONCLUSIONI: Da quanto è emerso dall’indagine si può affermare la necessità che le Ostetriche dedichino più tempo alla discussione del piano del parto con la donna durante il terzo trimestre. Un'altra riflessione può essere fatta rispetto agli incontri di accompagnamento alla nascita, anch’esso potrebbe essere un momento in cui una professionista ascolta e aiuta le donne a redigere un piano del parto consapevole. Sarebbe inoltre auspicabile diffondere l’importanza di questo strumento inserendolo, ad esempio, nella programmazione didattica del Corso di Laurea.
Resumo:
L'obbiettivo della seguente tesi è quello di analizzare quali sono ad oggi i migliori framework per lo sviluppo di software in Mixed Reality e studiare i design pattern più utili ad uno sviluppatore in questo ambito. Nel primo capitolo vengono introdotti i concetti di realtà estesa, virtuale, aumentata e mista con le relative differenze. Inoltre vengono descritti i diversi dispositivi che consentono la realtà mista, in particolare i due visori più utilizzati: Microsoft Hololens 2 e Magic Leap 1. Nello stesso capitolo vengono presentati anche gli aspetti chiave nello sviluppo in realtà mista, cioè tutti gli elementi che consentono un'esperienza in Mixed Reality. Nel secondo capitolo vengono descritti i framework e i kit utili per lo sviluppo di applicazioni in realtà mista multi-piattaforma. In particolare vengono introdotti i due ambienti di sviluppo più utilizzati: Unity e Unreal Engine, già esistenti e non specifici per lo sviluppo in MR ma che diventano funzionali se integrati con kit specifici come Mixed Reality ToolKit. Nel terzo capitolo vengono trattati i design pattern, comuni o nativi per applicazioni in realtà estesa, utili per un buono sviluppo di applicazioni MR. Inoltre, vengono presi in esame alcuni dei principali pattern più utilizzati nella programmazione ad oggetti e si verifica se e come sono implementabili correttamente su Unity in uno scenario di realtà mista. Questa analisi risulta utile per capire se l'utilizzo dei framework di sviluppo, metodo comunemente più utilizzato, comporta dei limiti nella libertà di sviluppo del programmatore.
Resumo:
Questa tesi ha l’obbiettivo di studiare e seguire la creazione un modello matematico che possa risolvere un problema logistico di Hub Facility Location reale, per l’individuazione del posizionamento ottimale di uno o più depositi all’interno di una rete distributiva europea e per l’assegnazione dei rispettivi clienti. Si fa riferimento alla progettazione della rete logistica per rispondere alle necessità del cliente, relativamente ad una domanda multiprodotto. Questo problema è stato studiato a partire da un caso reale aziendale per la valutazione della convenienza nella sostituzione di quattro magazzini locali con uno/due hub logistici che possano servire tutte le aree. Il modello distributivo può anche essere adoperato per valutare l’effetto della variazione, dal punto di vista economico, del servizio di trasporto e di tariffario. La determinazione della posizione ottimale e del numero dei magazzini avviene tramite un modello matematico che considera al proprio interno sia costi fissi relativi alla gestione dei magazzini (quindi costo di stabilimento, personale e giacenza) e sia i costi relativi al trasporto e alla spedizione dei prodotti sulle diverse aree geografiche. In particolare, la formulazione matematica si fonda su un modello Programmazione Lineare Intera, risolto in tempi molto brevi attraverso un software di ottimizzazione, nonostante la grande mole di dati in input del problema. In particolare, si ha lo studio per l’integrazione di tariffari di trasporto diversi e delle economie di scala per dare consistenza ad un modello teorico. Inoltre, per ricercare la migliore soluzione di quelle ottenute sono poi emersi altri fattori oltre a quello economico, ad esempio il tempo di trasporto (transit-time) che è un fattore chiave per ottenere la soddisfazione e la fedeltà del cliente e attitudine dell’area geografica ad accogliere una piattaforma logistica, con un occhio sugli sviluppi futuri.
Resumo:
In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.