640 resultados para Tesi, Gestione Aziendale, Strategia
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
Tenendo conto dell'elevato numero di morti provocate da arresto cardiaco e la possibilità di abbassare questo numero intervenendo tempestivamente con un Defibrillatore, mi sono posto l'obiettivo di analizzare dal punto di vista prestazionale e di costi i principali Defibrillatori Automatici Esterni presenti sul mercato in prospettiva di un eventuale acquisto futuro da parte della sede di Ingegneria dell'Università di Bologna.
Resumo:
La presente tesi intende analizzare il ruolo dell’interprete nel settore della salute mentale tra neutralità e partecipazione attiva. La ricerca è stata condotta nel Belgio francofono, dove il processo di professionalizzazione e armonizzazione ha portato alla creazione di due figure distinte: il mediatore interculturale che opera negli ospedali e l’interprete per i servizi pubblici. Entrambi lavorano nell’ambito della salute mentale. Benché questo settore presenti caratteristiche peculiari che influenzano la partecipazione dell’interprete, non esiste un codice deontologico specifico: quello dei mediatori interculturali è ideato sulle necessità dell’ambito medico, gli interpreti per i servizi pubblici hanno un codice etico generico. Sono stati intervistati quattordici interpreti al fine di ottenere una maggiore comprensione relativa a come concepiscono il loro ruolo, al rispetto del codice deontologico e alla gestione delle emozioni, in un contesto altamente emotivo come quello di una seduta psicoterapeutica. I risultati sono stati analizzati con un metodo qualitativo.
Resumo:
Il presente lavoro di Tesi è stato incentrato sul dimensionamento di un sistema wireless epidermico abile a monitorare parametri fisiologici. La fase iniziale del lavoro è stata spesa per indagare le varie tipologie di sorgenti utili ad effettuare Energy Harvesting in contesti applicativi biomedicali, ed analizzare lo stato dell’arte in merito ai sistemi miniaturizzati, passivi, interfacciabili alla superficie corporea, configurabili nel settore di ricerca e-skin. Il corpo centrale del lavoro è stato quello di dimensionare un nuovo sistema wireless epidermico, energeticamente autonomo. Tale sistema è stato strutturato in tre catene costitutive. La prima di queste definita di Energy Harvesting e storage, presenta una cella solare, un boost converter –charger per il management della potenza ed una thin film battery come elemento di storage. La seconda catena è configurabile come quella di ricezione, in cui l’elemento cruciale è una Wake-Up Radio (WUR), la cui funzione è quella di abilitare il sistema di misura costituito da Microcontroller e sensore solo quando un Reader comunicherà la corretta sequenza di bit abilitanti alla lettura. La presente scelta ha mostrato vantaggi in termini di ridotti consumi. La terza ed ultima catena del sistema per mezzo di Microcontrollore e Transceiver consentirà di trasmettere via RF il dato letto al Reader. Una interfaccia grafica utente implementata in Matlab è stata ideata per la gestione dei dati. La sezione ultima della Tesi è stata impostata analizzando i possibili sviluppi futuri da seguire, in particolare integrare il sistema completo utilizzando un substrato flessibile così come il Kapton e dotare il sistema di sensoristica per misure biomediche specialistiche per esempio la misura del SpO2.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.
Resumo:
Gestione calDAV e cardDAV per sincronizzazione rubrica e calendario
Resumo:
Questa tesi si propone di mettere in evidenza la forte spinta innovatrice che internet potrebbe dare allo sviluppo della democrazia, avendo abbattuto in maniera brutale i confini geo-politici, democratizzato addirittura all'esasperazione la libertà di parola e la possibilità di ognuno di far sentire la propria opinione ad un pubblico globale, rendendo sterile qualsivoglia regolamentazione locale e creando nuove e importanti problematiche di portata universale. Sulla rete viaggiano senza soluzione di continuità dati di ogni tipo, si concretizzano transazioni, si intrecciano relazioni, il tutto sorpassando agilmente le barriere fisiche dei confini nazionali, la distanza, le leggi, mettendo quindi l’umanità di fronte alla nuova sfida di armonizzare i vari ordinamenti giuridici, superare il concetto di sovranità nazionale e di creare un meccanismo democratico e partecipato di gestione della rete. La extraterritorialità della rete e il fatto che non si possa qualificare un "popolo sovrano" appartenente a questa entità, ha come vedremo posto l’umanità di fronte a nuove e ardue sfide: la necessità di regolare un mezzo così potente e diffuso ha portato negli anni ad un lungo dibattito, che vedremo, e che pone questioni di importanza capitale per la società di oggi così come la conosciamo: "si può esigere che l’evoluzione tecnologica della rete sia orientata al raggiungimento di obiettivi di interesse pubblico?", "chi deve gestire la rete?", "usufruire di internet è un diritto della persona?", "chi è il soggetto che ha possibilità e facoltà di intervenire efficacemente per la normazione della rete? I privati, lo Stato, gli utenti, o è necessario un quadro concertato che consideri tutti i pareri e gli interessi sulla questione?".
Resumo:
La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.
Resumo:
In questa tesi si propone il miglioramento sismico di un capannone in calcestruzzo armato prefabbricato a due piani a pilastri isostatici mediante l'inserimento di controventi dissipativi in acciaio con forma speciale (Crescent-Shaped-Braces). PREMESSA In primo luogo si dimostra come la struttura studiata soddisfi già i requisiti del DM 2008, sia allo SLD (spostamenti d’ interpiano) che allo SLV (elementi strutturali verificati). OBIETTIVO Migliorare le caratteristiche prestazionali di un edificio in calcestruzzo armato prefabbricato a due piani, sottoposto ad azione sismica. STRATEGIA Inserimento di dispositivi dissipativi di tipo Crescent Shaped Brace in alcune specchiature del capannone prefabbricato, in entrambe le direzioni. PROGETTAZIONE DELLA STRUTTURA RINFORZATA 1) Identificazione delle caratteristiche (rigidezza e resistenza) dei dispositivi CSB, sulla base di obiettivi scalati al livello superiore (deformabilità allo SLV e resistenza allo SLC) per il sistema «struttura + dispositivi», attraverso lo sviluppo di una procedura specifica per capannoni prefabbricati a 2 piani. 2) Progettazione dei dispositivi CSB (scelta della geometria e della sezione) 3) Verifica delle effettive prestazioni ottenute mediante simulazioni numeriche time-history
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Il lavoro svolto per la tesi consiste nella realizzazione di un'applicazione Android che permetta all’utente di scattare o caricare dalla gallery una foto personale e prelevare da una ListView fotografie di abiti da provare mediante trascinamento di quest’ultimi sulla foto dell’utente. Le fasi di lavoro sono state principalmente quattro: - Ricerca sullo stato dell’arte della tecnologia legata al Virtual Dressing Room (storia, elenco e descrizione dei metodi utilizzati da piattaforme esistenti, esempi reali di queste metodologie) - Progettazione con individuazione degli obiettivi e featuring dell’applicazione - Implementazione dell'applicazione (creazione dei layout e codice java delle activity:inserimento taglie e scelta uomo/donna, scatto/caricamento foto, creazione del database e utilizzo mediante ListView, visualizzazione e gestione del carrello). Scrittura del volume di tesi (introduzione e descrizione della tecnologia, progettazione, implementazione con descrizione su Android SDK, Android Studio e implementazione con descrizione dei layout e classi).
Resumo:
L’analisi morfologia e delle dinamiche evolutive di un alveo fluviale rappresenta una componente fondamentale per la gestione e riqualificazione dei corsi d’acqua naturali. Il presente elaborato tratta i principali aspetti dell’analisi geomorfologica fluviale e della modellazione numerico-idraulica per ciò che riguarda la gestione fluviale e la difesa del suolo, in relazione ad un tratto del torrente Ghiaia nei pressi dell’abitato di Monteveglio, seguendo una linea concettuale conforme alle norme regionali e territoriali. La prima fase del lavoro ha messo in evidenza le dinamiche evolutive del corso d’acqua in riferimento ad una scala temporale di circa 30 anni. È stata effettuata un’accurata indagine geomorfologica, confrontando diversi tipi di materiale disponibile: ortofoto e rilievi topografici relativi alla planimetria dell’alveo, alle sezioni trasversali e ai profili longitudinali. La seconda fase del lavoro ha messo in evidenza lo stato di fatto dell’area in studio, avvalendosi di un modello idraulico generato con l’utilizzo del software HEC – RAS 4.2.0. Sono stati simulati differenti scenari di analisi in moto permanente, i quali hanno permesso di verificare l’officiosità idraulica delle sezioni, il conseguente rischio idraulico, quindi di stimare quei valori di portata associati al Tempo di Ritorno che mettono in crisi il sistema, esponendo il centro abitato a situazioni di potenziale allagamento. Lo studio così effettuato ha permesso di ottenere un quadro preliminare delle condizioni idrauliche dell’area in esame, potendo indicare alcune ipotesi di intervento per mettere in sicurezza il territorio ed in particolare il centro abitato di Monteveglio. Gli interventi proposti sono stati mirati al contenimento almeno della piena trentennale e consistono nel risezionamento del tratto in studio e nella gestione della vegetazione, entrambi volti a migliorare il deflusso idrico e garantire l’officiosità idraulica del tratto in studio.
Resumo:
L’obiettivo del progetto di tesi svolto è quello di realizzare un servizio di livello middleware dedicato ai dispositivi mobili che sia in grado di fornire il supporto per l’offloading di codice verso una infrastruttura cloud. In particolare il progetto si concentra sulla migrazione di codice verso macchine virtuali dedicate al singolo utente. Il sistema operativo delle VMs è lo stesso utilizzato dal device mobile. Come i precedenti lavori sul computation offloading, il progetto di tesi deve garantire migliori performance in termini di tempo di esecuzione e utilizzo della batteria del dispositivo. In particolare l’obiettivo più ampio è quello di adattare il principio di computation offloading a un contesto di sistemi distribuiti mobili, migliorando non solo le performance del singolo device, ma l’esecuzione stessa dell’applicazione distribuita. Questo viene fatto tramite una gestione dinamica delle decisioni di offloading basata, non solo, sullo stato del device, ma anche sulla volontà e/o sullo stato degli altri utenti appartenenti allo stesso gruppo. Per esempio, un primo utente potrebbe influenzare le decisioni degli altri membri del gruppo specificando una determinata richiesta, come alta qualità delle informazioni, risposta rapida o basata su altre informazioni di alto livello. Il sistema fornisce ai programmatori un semplice strumento di definizione per poter creare nuove policy personalizzate e, quindi, specificare nuove regole di offloading. Per rendere il progetto accessibile ad un più ampio numero di sviluppatori gli strumenti forniti sono semplici e non richiedono specifiche conoscenze sulla tecnologia. Il sistema è stato poi testato per verificare le sue performance in termini di mecchanismi di offloading semplici. Successivamente, esso è stato anche sottoposto a dei test per verificare che la selezione di differenti policy, definite dal programmatore, portasse realmente a una ottimizzazione del parametro designato.
Resumo:
La tesi, svolta per il completamento della Laurea Magistrale in Ingegneria Informatica, tratta la realizzazione di un progetto prototipo di Computer Vision (CV) e Realtà Aumentata (RA) per la manutenzione tecnica di macchinari industriali attraverso l'utilizzo di dispositivi mobili See-Through. Lo scopo è stato, oltre lo studio dello stato dell'arte in materia, provare con mano e rendere maggiormente visibili al pubblico questi nuovi rami dell'informatica. Il prototipo creato è stato inserito in un contesto aziendale, con misurazioni e prove sul campo. Partendo da una breve introduzione sulla realtà aumentata, nel primo capitolo viene descritto il progetto sviluppato, diviso in due sottoprogetti. Il primo, svolto solamente in una fase iniziale e presentato nel secondo capitolo, espone la realizzazione di un'applicazione mobile per lo streaming video con l'aggiunta di contenuti grafici aumentati. Il secondo, progettato e sviluppato in totale autonomia, rappresenta un prototipo demo di utilizzo della RA. La realizzazione viene illustrata nei capitoli successivi. Nel terzo capitolo si introducono gli strumenti che sono stati utilizzati per lo sviluppo dell'applicazione, in particolare Unity (per il development multi-piattaforma), Vuforia (per gli algoritmi di CV) e Blender (per la realizzazione di procedure di manutenzione). Il quarto capitolo, la parte più rilevante della trattazione, descrive, passo dopo passo, la creazione dei vari componenti, riassumendo in modo conciso e attraverso l'uso di figure i punti cardine. Infine, il quinto capitolo conclude il percorso realizzato presentando i risultati raggiunti e lasciando spunto per possibili miglioramenti ed aggiunte.