766 resultados para portafoglio efficiente ottimizzazione teoria di Markowitz
Resumo:
La tesi ha lo scopo di illustrare come sia possibile l’applicazione del metodo biodinamico prendendo come caso studio Tenuta Mara, un’azienda situata nelle colline riminesi. Dapprima viene analizzato il pensiero di Rudolf Steiner, ideatore della teoria che, attraverso le otto conferenze tenute nel 1924 a Koberwitz, rende noti i risultati delle sue ricerche sperimentali avviate nel 1922, derivate da una visione del mondo dove le forze cosmiche, i pianeti e le costellazioni creano un equilibrio tra loro, dove l’uomo si integra pienamente rispettando i voleri della terra. Viene anche affrontata una parte relativa al quadro normativo, facendo un excursus dal marchio Demeter del 1927, al primo Regolamento CEE 2092/ 91 relativo al biologico, fino alla recente legge n. 23 del 9 Marzo 2022 in Italia. Si passa così da una prima parte teorica alla seconda, dove questa viene messa in pratica. Tenuta Mara ha fatto dell’attenzione verso la sostenibilità, riguardante i materiali ecologici utilizzati nella struttura, del risparmio energetico su tutto il processo produttivo e della gestione delle acque consapevoli i propri punti cardine. Le pratiche della viticoltura biodinamica si fondono con la passione per il vino, per l’arte e la musica, con la decisione di ridurre al minimo l’intervento dell’uomo durante tutto il processo enologico, dando alla natura il potere di sceglierne il percorso. Attraverso il supporto dell’enologo viene compreso appieno lo spirito della Tenuta, ponendo particolare attenzione sul processo di vinificazione in bianco per la produzione del Maramato, un vino color del rame, derivato dalle uve di Sangiovese.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
Questa tesi ha come obbiettivo la valutazione della conoscenza dei centri per gli uomini autori di violenza da parte del personale sanitario. I risultati ottenuti mostrano che i centri sono poco conosciuti. Successivamente l'elaborato si focalizza sui centri di recupero per gli uomini, in particolare LDV ("Liberiamoci dalla Violenza”). Le domande a cui questo elaborato si propone di rispondere sono: 1. Chi è l’autore di violenza? 2. Quali sono i metodi di intervento dei Centri che prendono in carico gli autori di violenza? 3. Quali sono le risorse presenti sul territorio?” La tesi si sviluppa in tre parti: 1. analisi della letteratura 2. questionario rivolto agli operatori sanitari per verificare la conoscenza dei centri per gli uomini autori di violenza 3. realizzazione di interviste semi-strutturate ai professionisti che lavorano nel centro LDV Risulta indispensabile lavorare con gli uomini autori di violenza al fine di ridurre il rischio del perpetuarsi di comportamenti violenti. Allo stesso modo è fondamentale avere una rete territoriale efficiente, che favorisca un contatto tra i maltrattanti e i Centri per gli uomini per uscire dalla violenza. Ciò contribuendo alla riduzione del fenomeno e dando risposte efficaci a un problema di salute pubblica e giustizia sociale.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.
Resumo:
I campi elettrici pulsati (PEF) rappresentano una tecnologia emergente che di anno in anno va acquisendo una popolarità sempre maggiore nel campo della trasformazione e conservazione degli alimenti. Tuttavia, l’applicazione di questa tecnica nel settore dei prodotti ittici è ad oggi ancora scarsamente utilizzata. L’obiettivo di questo studio è stato quello di valutare l’effetto dell’applicazione dei campi elettrici pulsati come pretrattamento ad una leggera salagione sulla shelf-life di filetti di branzino confezionati in atmosfera protettiva (MAP). I filetti sono stati sottoposti a campi elettrici pulsati ad intensità di 0.6 kV/cm e successivamente immersi in una salamoia al 5% di NaCl per 24 ore. Dopodiché, i filetti pretrattati sono stati confezionati e stoccati a 4°C per 8 giorni, durante i quali sono state eseguite le determinazioni analitiche volte a valutare lo sviluppo microbico e le principali caratteristiche qualitative. I risultati hanno dimostrato che l’utilizzo dei PEF come pretrattamento alla salagione può incrementare significativamente la concentrazione di sale nei filetti, probabilmente grazie ad una distribuzione più omogenea di NaCl nel tessuto muscolare. In aggiunta, sono state riscontrate alcune differenze significative nella riduzione del peso dei filetti in seguito al trattamento PEF, il quale è risultato inferiore nei filetti trattati, fenomeno che potrebbe essere riconducibile alla capacità dei campi elettrici pulsati di aumentare la capacità di ritenzione idrica (WHC). Inoltre, al di là di un leggerissimo aumento dell’indice di ossidazione lipidica nei filetti sottoposti ai PEF nei tempi immediatamente successivi al trattamento, non sono state riscontrate altre differenze significative nei restanti parametri considerati. Pertanto, il pretrattamento con PEF risulta promettente per rendere più efficiente il successivo processo di salagione, senza influire negativamente sulla shelf-life del prodotto finale confezionato.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
Questo documento presenta un modello efficiente di gestione e di monitoraggio dei rifiuti basato sull’IoT per migliorare l’ambiente di vita nelle città. Il sistema proposto utilizza sensori e tecnologie di comunicazione che raccolgono ed elaborano in tempo reale dati trasmessi da cassonetti smart permettendo un’efficace gestione dell’igiene urbana e riducendo sconvenienti malfunzionamenti dei cassonetti, fastidiosi sia per i cittadini sia per gli operatori pubblici. Il risultato del progetto è un insieme di oggetti e processi interconnessi in un mondo, quello della raccolta dei rifiuti, in cui l’automazione non esiste ancora o è poco diffusa e che invece potrebbe portare un buon incremento nel funzionamento.
Resumo:
Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di simulare il comportamento di un'aorta addominale con e senza aneurismatica, considerando sia la fluidodinamica del flusso sanguigno, sia lo spostamento elastico meccanico dell'aorta, quindi come il primo fattore influisca sul secondo e viceversa. Questo elaborato si propone pertanto di investigare gli strumenti che permettano di intervenire ed evitare situazioni degenerative in ambito cardiovascolare. Partendo dal caso di aneurisma dell'aorta addominale (AAA) e servendosi di una serie di strumenti computazionali è possibile compiere un confronto tra quadri clinici di diversi pazienti per favorire e facilitare il lavoro di medici e chirurghi, stabilendo una rapida correlazione tra la cattura di immagini in tempo reale dei pazienti attraverso TAC (Tomografia Assiale Computerizzata) e i parametri d’interesse nella formazione di aneurismi. Si fornisce in questo modo al professionista che li osserva un’immediata ed efficiente comprensione del quadro clinico sulla base del quale potrà decidere se e come intervenire.
Resumo:
Oggetto di studio della tesi è la riqualificazione energetica di un capannone industriale. Dati gli elevati costi della materia prima combustibile, è stata sviluppata una soluzione che possa ridurre il consumo di gas naturale. Nel capannone sono attualmente installati dei sistemi costituiti da caldaie ed aerotermi. Il sistema studiato prevede invece l'impiego di lampade catalitiche. Esse sono dispositivi in grado di generare calore e scaldare gli oggetti circostanti tramite irraggiamento. L'impianto esistente lavora per convezione; data la grande volumetria del locale tale modalità di trasmissione del calore risulta poco efficiente. Nello studio vengono presentati vantaggi e criticità di entrambe le tecnologie. Particolare attenzione viene rivolta all'aspetto legato alla sicurezza, dato che le lampade catalitiche richiedono che la rete del gas cammini per alcuni tratti all'interno della struttura. A completamento dello studio è stata effettuata un'analisi tecnico-economica per valutare l'effettivo vantaggio del nuovo impianto. Durante ogni fase di verifica e progettazione è stata rispettata la normativa vigente.
Resumo:
La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.
Resumo:
La miscelazione di sistemi gas-liquido all’interno di recipienti meccanicamente agitati ritrova molte applicazioni industriali. I recipienti meccanicamente agitati rappresentano la scelta più conveniente poiché consentono una dispersione ottimale della fase dispersa all’interno della fase continua ed uno scambio di materia e di calore efficiente. I parametri chiave sono il consumo di potenza, l’hold-up di gas ed il regime gas-impeller. La fase sperimentale è stata sviluppata mediante l’utilizzo di un reattore pilota operante con tre turbine Rushton. Il consumo di potenza è stato valutato ed i risultati ottenuti dalle analisi di laboratorio sono stati confrontati con la correlazione empirica di Warmoeskerken (1986). Le tecniche impiegate in passato per la caratterizzazione dei sistemi gas-liquido sono caratterizzate da diversi svantaggi quali la possibilità di essere utilizzate solo per lo studio di sistemi trasparenti, l’intrusività ed i costi alti. Attualmente, la tomografia a resistenza elettrica (ERT) è una delle tecniche di ispezione più utilizzate grazie alla sua potenzialità di fornire informazioni qualitative e quantitativi. Uno degli obiettivi di questo lavoro di tesi è quello di validare una metodologia da seguire per la caratterizzazione dei sistemi gas-liquido. L’ERT è stata utilizzata per la valutazione dell’hold-up di gas e per l’identificazione del regime instaurato all’interno dell’apparecchiatura. I risultati sono stati confrontati con le valutazioni visive e le correlazioni proposte dalla letteratura. La strumentazione dell’ERT comprende un sistema di sensori, un sistema di acquisizione dati (DAS) ed un computer sul quale è installato il software per la ricostruzione dell’immagine, il quale, generalmente, è basato sull’algoritmo linear back - projection. Ulteriore obiettivo di questo lavoro di tesi è quello di investigare sulla convenienza di adoperare un software più sofisticato per la ricostruzione dell’immagine.
Resumo:
In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.
Resumo:
Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.
Resumo:
Lo studio condotto è relativo allo sviluppo del Digital Twin di macchine automatiche finalizzato all’implementazione del cosiddetto Virtual Commissioning, cioè simulazioni virtuali della messa in servizio delle macchine per la verifica preliminare e/o ottimizzazione dei codici di controllo (Part Program o G-code). In particolare, il caso di studio trattato in questa tesi è la macchina F2F prodotta dall’Azienda GIULIANI (gruppo Bucci Automations S.p.a., Faenza – RA), con centro di lavoro bi-mandrino con tavola rotante azionato tramite controllore Fanuc. Dopo aver creato il Digital Twin della macchina, che ha richiesto come primo passo la digitalizzazione di alcuni componenti di cui non si avevano a disposizione i modelli CAD 3D, sono state effettuate simulazioni di cicli di lavoro di diversi semigrezzi, così da validare il modello in modo approfondito sulla base dell’esame di varie casistiche. In questa tesi si analizzano nel dettaglio il processo di sviluppo del modello e le procedure di simulazioni di Virtual Commissioning implementate sul software Eureka Virtual Machining (Roboris S.r.l., Pisa), delle quali vengono presentati i maggiori problemi riscontrati e illustrate le relative soluzioni. L’obiettivo è quello di fornire linee guida di carattere generale per affrontare anche in futuro le criticità più significative durante la fase di digitalizzazione delle macchine prodotte dall’Azienda. Inoltre, come applicazione particolare delle simulazioni Virtual Commissiong, è stata svolta un’attività di ottimizzazione per la riduzione del tempo di ciclo di lavoro di un pezzo, con lo scopo di incrementare la produttività della macchina. Infine, si fa notare che il produttore del software ha eseguito modifiche alla versione corrente di Eureka sulla base delle criticità che sono state riscontrate e segnalate durante lo sviluppo di questa tesi.