321 resultados para Ottimizzazione
Resumo:
Progetto per l'integrazione degli strumenti attualmente utilizzati per l'amministrazione degli asset in funzione anche della normativa in vigore.
Resumo:
Questo lavoro di tesi ha avuto come obiettivo quello di individuare e studiare diverse strategie di sintesi per la preparazione di catalizzatori a base di Pd-Cu supportati su materiali mesoporosi a basi di SiO2. Queste strategie sono state mirate a migliorare: -Distribuzione della fase metallica attiva e la sua accessibilità; -Formazione della fase mista Pd-Cu; -Dimensione delle specie metalliche sulla superficie; -Differenti caratteristiche morfologiche del supporto. I diversi catalizzatori preparati sono stati poi testati sulla reazione di idrodeclorurazione del 1,2-dicloro-1,1,2-trifluoro-2-(triflurometossi)etano (AM), svolta in fase gas con idrogeno a pressione atmosferica, con lo scopo di ottenere il composto insaturo corrispondente 1,1,2-trifluoro-2-(trifluorometossi)etene (MVE). Attualmente, il processo industriale per la produzione di MVE, è condotto con l’utilizzo di quantità stechiometriche di Zn in dimetilformammide; questo processo a causa delle quantità stechiometriche di ZnCl2 prodotto e dell'elevato consumo di solvente tossico risulta assai dispendioso dal punto di vista economico ed ambientale. La tipologia di materiali microporosi, già investigata, può limitare l'efficienza verso substrati ingombranti, è quindi interessante investigare catalizzatori con dimensione dei pori mesoporosi a base di silice; in particolare sono stati analizzati MCM-41 e silice amorfa GRACE® DAVICAT - 1401. In particolare, durante il lavoro di tesi sono stati sviluppati i seguenti argomenti: 1.Studio degli effetti della metodologia di sintesi e del contenuto metallico sui parametri chimico-fisici e catalitici dei sistemi a base di Pd-Cu supportati su MCM-41 e GRACE® DAVICAT - 1401; 2.Ottimizzazione del processo di sintesi dei supporti di MCM-41, ponendo attenzione alle quantità dei reagenti utilizzati, alla metodologia di eliminazione del templante e al tempo di trattamento idrotermale; 3.Ottimizzazione del processo di sintesi dei sistemi catalitici a base di Pd-Cu, al fine di ottenere una fase attiva costituita da particelle con dimensioni ridotte composte da una fase mista Pd-Cu.
Resumo:
a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.
Resumo:
Nella tesi viene svolto un lavoro di modellazione del protocollo MAC 802.15.4 Wireless Personal Area Network (WPAN), per reti di sensori; dopodiché esso viene sottoposto ad una serie di analisi energetiche attraverso simulazioni nell'ambiente OMNeT++. Numerosi sono i parametri che sono stati considerati per caratterizzare al meglio le analisi effettuate, nonché le diverse condizioni iniziali. Il profilo energetico ottenuto è stato messo a confronto con quello del protocollo 802.15.4m per TVWS. I dati ottenuti sono stati elaborati con un algoritmo power control con l'obiettivo di raggiungere la massima ottimizzazione energetica.
Resumo:
Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.
Resumo:
Questa tesi si occupa della progettazione, simulazione via software, caratterizzazione e realizzazione con microfresatrice di una tipologia di filtri passivi. Questo trattato si inserisce su una linea di ricerca già avanzata, che si occupa di studio e realizzazione di sistemi di ricetrasmissione wireless UWB di segnali provenienti da sensori per applicazioni biologiche. Lo scopo dello studio di questa tesi è l'ottimizzazione dell'efficienza del filtro, ovvero il miglioramento del rapporto segnale rumore R/S.
Resumo:
Verifica, riprogettazione e ottimizzazione di una struttura meccanica utilizzata per la realizzazione di radiografie a domicilio, per pazienti con impossibilità di movimento dallo stesso.
Resumo:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
Resumo:
Ogni giorno enormi quantità di dati sono prodotti come record dettagliati del comportamento di utilizzo del Web, ma l'obiettivo di trarne conoscenza rimane ancora una sfida. In questa trattazione viene descritto EOP(Eye-On-Portal), un framework di monitoring che si propone come strumento per riuscire a catturare informazioni dettagliate sulle componenti della pagina visitata dall'utente e sulle interazioni di quest'ultimo con il portale: i dati raccolti potrebbero avere utilità nell'ottimizzazione del layout e nell'usabilità del portale.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Con questo lavoro di tesi si affrontano i primi accorgimenti sperimentali necessari alla realizzazione di un esperimento di ottica quantistica. L'attività svolta consiste nell'ottimizzazione dei parametri di un PLL (Phase-Locked Loop) che mantiene due laser agganciati in frequenza, e nella misura del rumore di fase presente nell'aggancio. Questa stabilizzazione costituisce il primo passo per la generazione di luce squeezed, associata a particolari stati del campo elettromagnetico. Grazie a quest'ultima, è possibile migliorare la sensibilità raggiungibile in esperimenti di interferometria di precisione, quali ad esempio quelli per la ricerca di onde gravitazionali. L'iniezione di luce squeezed costituirà infatti parte del prossimo upgrade dell'interferometro di Virgo.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.