474 resultados para Manutenzione correttiva, Manutenzione preventiva, Gestione del magazzino, Aeronautica
Resumo:
Nel contesto della progettazione di interventi di difesa da frane di crollo, la tesi è rivolta allo studio del comportamento di opere di protezione dalla caduta massi, con particolare riguardo alle barriere paramassi, strutture metalliche progettate per arrestare blocchi in caduta lungo un versante. Specificamente, il comportamento altamente non lineare di queste strutture è stato osservato mediante modellazione numerica agli elementi finiti con codice di calcolo STRAUS 7 v.2.3.3. La formulazione dei modelli è stata sviluppata a partire dai dati contenuti nel Catasto delle opere di protezione (VISO), recentemente messo a punto dalla Provincia Autonoma di Bolzano, nel contesto di una più ampia procedura di analisi della pericolosità di versante in presenza di opere di protezione, finalizzata ad una appropriata gestione del rischio indotto da frane di crollo. Sono stati messi a punto una serie di modelli agli elementi finiti di alcune tra le tipologie più ricorrenti di barriere paramassi a limitata deformabilità. Questi modelli, sottoposti ad una serie di analisi dinamiche e non-lineari, intese a simulare l’impatto di blocchi aventi massa e velocità nota, hanno permesso di osservare la risposta complessiva di queste strutture in regime dinamico identificando i meccanismi di rottura a partire dall’osservazione della formazione di cerniere plastiche, monitorando contestualmente grandezze rilevanti quali gli spostamenti e le forze mobilitate in fondazione. Questi dati, opportunamente interpretati, possono fornire i parametri necessari all’implementazione di più ampie procedure di analisi del rischio indotto da movimenti frane di crollo.
Resumo:
La ricerca è collocata nell’ambito del progetto europeo “GREEN AIR” (7FP – Transport) che è finalizzato alla produzione di idrogeno a bordo di aerei mediante deidrogenazione catalitica di cherosene avio. La deidrogenazione di molecole organiche volta alla produzione di idrogeno è una reazione poco studiata; in letteratura sono presenti solo esempi di deidrogenazione di molecole singole, tipicamente a basso peso molecolare, per la produzione di olefine. Già per questi substrati la conduzione della reazione risulta molto complessa, quindi l’impiego di frazioni di combustibili reali rende ancora più problematica le gestione del processo. L’individuazione dei parametri operativi e della corretta formulazione del catalizzatore possono essere definiti accuratamente solo dopo un approfondito studio dei meccanismi di reazione e di disattivazione. Pertanto questo lavoro ha come obiettivo lo studio di questi meccanismi partendo da molecole modello per giungere poi a definire la reattività di miscele complesse. Le problematiche principali che si presentano nella conduzione di questa reazione sono la disattivazione da coke e da zolfo. Quindi è evidente che la comprensione dei meccanismi di reazione, di formazione dei depositi carboniosi e dell’avvelenamento da zolfo è uno stadio fondamentale per delineare quali siano i requisiti necessari alla realizzazione del processo. Il fine ultimo della ricerca è quello di utilizzare le informazioni acquisite dallo studio dei meccanismi coinvolti per arrivare a formulare un catalizzatore capace di soddisfare i requisiti del progetto, sia in termini di produttività di idrogeno sia in termini di tempo di vita, unitamente alla definizione di accorgimenti utili al miglioramento della conduzione della reazione.
Resumo:
Questa tesi di laurea comincia dallo studio delle modalità attraverso cui, nel secondo dopoguerra, si è deciso di gestire la ricostruzione all’interno del tessuto storico del capoluogo emiliano. Il fine è capire se le ricostruzioni si rapportano e si inseriscono all’interno del tessuto edilizio storico, alle sue caratteristiche e peculiarità, ricucendolo là dove la guerra l’aveva interrotto. Definiti quadro e contesto di riferimento, si sono delineati i protagonisti della ricostruzione bolognese. Primo tra tutti emerge Alfredo Barbacci, Soprintendente ai Monumenti dell’Emilia, il cui ruolo inevitabilmente lo fa entrare nel vivo della vicenda. In carica all’epoca della guerra (e dunque dei bombardamenti), è coinvolto fin dai primi momenti di pace nella gestione della ricostruzione. La sua militanza, a partire dagli anni Sessanta, nei confronti della tutela dell’ambiente costruito, quanto di quello naturale, ha spinto la ricerca ad indagare se, e in che modo, questa sua “militanza” abbia legami con la Ricostruzione bolognese, ed approdare infine a considerazioni più ampie sull’origine della frattura legislativo disciplinare tra tutela e gestione del paesaggio.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.
Resumo:
Studio del quadro normativo relativo a progettazione e successiva certificazione dei dirigibili e della normativa di volo per gli enti di gestione del traffico aereo previsti per questi mezzi, allo scopo di fornire al progettista alcune indicazioni utili ad una successiva certificazione e alle operazioni all'interno dei diversi spazi aerei.
Resumo:
Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).
Resumo:
Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.
Resumo:
Per lo svolgimento della tesi ci si è rivolti ad un'azienda particolarmente conosciuta per la sua attenzione alle tematiche ambientali: la Mengozzi Rifiuti Sanitari S.p.A.. L'impianto, sito a Forlì, comprende una sezione dedicata alla gestione di contenitori in materiale plastico per rifiuti sanitari e una sezione per la termovalorizzazione di questi. Si è incentrato lo studio sulla prima parte dell'impianto che si occupa della produzione, del trasporto verso la struttura in cui è utilizzato, del ritorno in azienda e del riuso per più cicli previa sanificazione fino al riciclo per lo stampaggio di nuovi contenitori. Si è pensato di prendere in considerazione i bidoni che sono gestiti dalla Mengozzi S.p.A. e se ne è svolta un'analisi LCA comparativa tra il contenitore effettivamente in carico all'azienda e un altro ipotetico con le medesime caratteristiche strutturali ma gestito diversamente (incenerito dopo un solo utilizzo). Essendo il contenitore di plastica si è inoltre svolta una comparazione tra 2 materiali termoplastici di massa aventi caratteristiche molto simili, quali sono il polietilene ad alta densità (HDPE) e il polipropilene (PP). Il software che è stato utilizzato per condurre l'analisi è SimaPro 7.3 e il metodo lo svizzero IMPACT 2002+. Nello svolgimento si sono considerati 12 bidoni monouso che hanno in pratica la stessa funzione dell'unico bidone sanificato dopo ogni utilizzo e infine riciclato. Dall'analisi è emerso (come facilmente ipotizzabile) che il bidone riusato genera un impatto ambientale nettamente minore rispetto a quello monouso mentre non vi è apprezzabile differenza tra differente tipologia di materiale termoplastico costituente il bidone stesso: L'importanza della scelta della più adeguata modalità di gestione del fine vita e del materiale di composizione in termini ambientali è più marcata a causa di un'attenzione sempre crescente verso le tematiche di sostenibilità.
Resumo:
In questo elaborato andremo a descrivere, sia a livello strutturale che implementativo, il progetto sperimentale da noi ideato volto alla creazione di un laboratorio virtuale di testing. Lo scopo principale del laboratorio è appunto quello di delocalizzare la fase preliminare di testing di un'applicazione; nel nostro caso specifico siamo partiti dallo scenario riguardante la rete ferroviaria ed abbiamo preso in esame il software utilizzato per la gestione del traffico. Il vincolo principale che grava su questo progetto è che l'applicazione da collaudare non deve minimamente essere modificata, e ciò significa che occorre creare intorno ad essa un ambiente di testing conforme alle caratteristiche in cui il software si aspetta di operare. Ed è qui che entra in gioco la virtualizzazione.
Resumo:
Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
In questa tesi sono stati apportati due importanti contributi nel campo degli acceleratori embedded many-core. Abbiamo implementato un runtime OpenMP ottimizzato per la gestione del tasking model per sistemi a processori strettamente accoppiati in cluster e poi interconnessi attraverso una network on chip. Ci siamo focalizzati sulla loro scalabilità e sul supporto di task di granularità fine, come è tipico nelle applicazioni embedded. Il secondo contributo di questa tesi è stata proporre una estensione del runtime di OpenMP che cerca di prevedere la manifestazione di errori dati da fenomeni di variability tramite una schedulazione efficiente del carico di lavoro.