922 resultados para portafoglio efficiente ottimizzazione teoria di Markowitz
Resumo:
Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.
Resumo:
Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.
Resumo:
Il presente lavoro si compone di una parte iniziale in cui si introducono i principi alla base della teoria della Relatività Generale, e viene discussa la loro effettiva importanza come elementi fondanti del lavoro di Einstein. Nel capitolo 1 si sviluppano i principali concetti di geometria differenziale utili alla comprensione dei risultati ottenuti nei capitoli successivi. In particolare viene mostrato un risultato notevole che permette di ricavare gli integrali primi del moto geodetico a partire dalla dipendenza del tensore metrico dalle coordinate utilizzate. Vengono poi brevemente introdotte le Equazioni di campo di Einstein. Nel capitolo 2 Viene ricavata la soluzione di Schwarzschild e le quantità conservate nel moto in caduta libera verso una sorgente a simmetria sferica e statica. Viene poi definito il concetto di orizzonte degli eventi. Infine nel capitolo 3 viene introdotta la metrica di Kerr, e si suggerisce come questa possa essere indotta da una sorgente massiva rotante. Vengono analizzati gli integrali primi del moto di particelle in caduta libera e da questi viene ricavata l'espressione dell'effetto di trascinamento. Vengono poi introdotto il concetto di limite statico e la definizione di ergosfera, e viene ricavata l'espressione del raggio dell'orizzonte degli eventi.
Resumo:
Lo scopo della tesi è la progettazione e lo sviluppo di una web app che consenta a degli utenti (ristoratori) di registrare le prenotazioni del proprio locale, per potervi accedere successivamente. Il risultato ottenuto rispetta i vincoli di progetto e fornisce una soluzione efficiente al problema.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
La Fondazione ANT rappresenta una delle più ampie esperienze al mondo di assistenza socio-sanitaria gratuita a domicilio ai malati di tumore, tramite équipe di specialisti costituite da medici, psicologi e infermieri. La patologia oncologica ha un enorme impatto sul benessere dei pazienti. Un modo per raggruppare i diversi sintomi di disagio psicologico è utilizzare il concetto di distress, che sarebbe importante monitorare in modo semplice e veloce. Primo studio: 66 pazienti oncologici (40% uomini; età media 54 anni) in cure palliative domiciliari. Il 79% dei pazienti ha mostrato livelli clinicamente significativi di distress. Il 55% dei partecipanti allo studio ha riportato alti livelli di ansia, e l'81% dei pazienti ha riportato alti livelli di depressione. Dall'analisi delle curve ROC il singolo item del Distress Thermometer, con un cut-off maggiore o uguale a 4, è stato in grado di rilevare il 97% dei soggetti con punteggi clinici di ansia e depressione, quindi può essere utilizzato anche come uno strumento di screening precoce rapido ed affidabile per i disturbi dell'umore. I familiari sono la prima risorsa dei malati di tumore, e l'identificazione dei loro bisogni è utile per individuare chi ha maggiore necessità di aiuto ed in quali aree. Secondo studio: 115 caregiver di pazienti oncologici (37% uomini; età media 52 anni). Di seguito i bisogni più frequenti. Salute psicofisica: “preoccupazioni circa il/la paziente” (72%), ansia (53%) e rabbia (52%). Informazioni: “come prendersi cura del paziente” (64%), “terapie alternative e/o complementari” (64%) e “come gestire lo stress” (57%). Servizi e strutture sanitarie: “un operatore di riferimento”, (65%), “cure infermieristiche a domicilio” (62%), “indicazioni su servizi ospedalieri” (57%), ed “assistenza per caregiver, ad esempio consulenza psicologica” (55%). Il monitoraggio dei bisogni consentirebbe un'ottimizzazione dell'assistenza, prevenendo situazioni che potrebbero compromettere il benessere della famiglia e la qualità dell'assistenza fornita al paziente.
Resumo:
La recente Direttiva 31/2010 dell’Unione Europea impone agli stati membri di riorganizzare il quadro legislativo nazionale in materia di prestazione energetica degli edifici, affinchè tutte le nuove costruzioni presentino dal 1° gennaio 2021 un bilancio energetico tendente allo zero; termine peraltro anticipato al 1° gennaio 2019 per gli edifici pubblici. La concezione di edifici a energia “quasi” zero (nZEB) parte dal presupposto di un involucro energeticamente di standard passivo per arrivare a compensare, attraverso la produzione preferibilmente in sito di energia da fonti rinnovabili, gli esigui consumi richiesti su base annuale. In quest’ottica la riconsiderazione delle potenzialità dell’architettura solare individua degli strumenti concreti e delle valide metodologie per supportare la progettazione di involucri sempre più performanti che sfruttino pienamente una risorsa inesauribile, diffusa e alla portata di tutti come quella solare. Tutto ciò in considerazione anche della non più procrastinabile necessità di ridurre il carico energetico imputabile agli edifici, responsabili come noto di oltre il 40% dei consumi mondiali e del 24% delle emissioni di gas climalteranti. Secondo queste premesse la ricerca pone come centrale il tema dell’integrazione dei sistemi di guadagno termico, cosiddetti passivi, e di produzione energetica, cosiddetti attivi, da fonte solare nell’involucro architettonico. Il percorso sia analitico che operativo effettuato si è posto la finalità di fornire degli strumenti metodologici e pratici al progetto dell’architettura, bisognoso di un nuovo approccio integrato mirato al raggiungimento degli obiettivi di risparmio energetico. Attraverso una ricognizione generale del concetto di architettura solare e dei presupposti teorici e terminologici che stanno alla base della stessa, la ricerca ha prefigurato tre tipologie di esito finale: una codificazione delle morfologie ricorrenti nelle realizzazioni solari, un’analisi comparata del rendimento solare nelle principali aggregazioni tipologiche edilizie e una parte importante di verifica progettuale dove sono stati applicati gli assunti delle categorie precedenti
Resumo:
L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.
Resumo:
Il monitoraggio dei rilasci può essere indoor o outdoor; l’attenzione del presente lavoro è rivolta a sistemi di monitoraggio di gas infiammabili e/o tossici in ambienti esterni di stabilimenti onshore. L’efficacia dei sistemi di Gas Detection è profondamente influenzata dalla disposizione dei sensori nelle aree di rischio. Esistono codici e standard che forniscono informazioni molto dettagliate per la progettazione dei sistemi di Fire Detection e linee guida per la scelta, l’installazione ed il posizionamento ottimale dei sensori di incendio. La stessa affermazione non si può fare per i sistemi di Gas Detection, nonostante dall’individuazione tempestiva di un rilascio dipendano anche le successive azioni antincendio. I primi tentativi di sviluppare linee guida per il posizionamento dei sensori di gas sono stati effettuati per le applicazioni off-shore, dove l’elevato livello di congestione e il valore delle apparecchiature utilizzate richiedono un efficiente sistema di monitoraggio dei rilasci. Per quanto riguarda gli impianti on-shore, i criteri di posizionamento dei rilevatori di gas non sono ufficialmente ed univocamente definiti: il layout dei gas detectors viene in genere stabilito seguendo criteri di sicurezza interni alle compagnie affiancati da norme di “buona tecnica” e regole empiriche. Infatti, nonostante sia impossibile garantire l’individuazione di ogni rilascio, vi sono linee guida che propongono strategie di posizionamento dei gas detectors in grado di massimizzare la probabilità di successo del sistema di monitoraggio. Il presente lavoro è finalizzato alla verifica del corretto posizionamento dei gas detectors installati presso l’impianto pilota SF2 dello stabilimento Basell Poliolefine Italia di Ferrara.
Resumo:
L'elaborato affronta la definizione di differenti strategie per il campionamento e la ricostruzione di segnali wavefield per applicazioni di monitoraggio strutturale. In accordo con quanto indicato dalla teoria del Compressive Sensing, obiettivo della tesi è la minimizzazione del numero di punti di acquisizione al fine di ridurre lo sforzo energetico del campionamento. I risultati sono validati in ambiente Matlab utilizzando come riferimento segnali acquisiti su setup sperimentali in alluminio o materiale composito in presenza di diverse tipologie di difetto.
Resumo:
Studio della ipersostentazione di un velivolo non convenzionale degli anni ‘40, il Vought V-173 Flying Pancake. Per realizzare l’intero lavoro si sono adoperati dei software di fluidodinamica computazionale come Flow Simulation di SolidWorks e il programma JavaFoil, inoltre, si è scelto l’ambiente Matlab di supporto ai calcoli e per rappresentare i risultati ottenuti a seguito delle simulazioni, realizzando script e funzioni per l’approssimazione di questi e la loro successiva raffigurazione grafica. In particolar modo, a partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL-α e CD-α a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. In una prima fase si è valutata l’aerodinamica del velivolo ‘pulito’ senza la presenza delle eliche e di ipersostentatori, successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell’aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo (i plain flap), proponendo soluzioni alternative per migliorare l’ipersostentazione del V-173 tramite spillamenti (slots) e diverse configurazioni di vortex generator che energizzassero lo strato limite e ottimizzassero le prestazioni del velivolo con particolare attenzione alla fase di atterraggio. In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l’influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.