1000 resultados para Realtà aumentata metodologie di progetto settore aerospaziale
Resumo:
In questo momento i servizi costituiscono il principale settore d’impiego e la maggior fonte di reddito per le economie sviluppate, rappresentando circa tre quarti del prodotto interno lordo sia negli Stati Uniti che nel Regno Unito. (Piercy e Rich, 2009) Nonostante però questa notevole importanza per l’economia, le organizzazioni di questo settore non riescono a fornire dei servizi di qualità tale da soddisfare le richieste dei clienti. (Piercy e Rich, 2009) Ancora più preoccupante è il risultato degli indicatori che forniscono un livello di qualità dei servizi in calo di anno in anno. (Dickson et al., 2005) Questo lavoro di tesi si occupa di analizzare il Lean Six Sigma come metodologia di cambiamento organizzativo e miglioramento dei processi aziendali, nel contesto dei servizi e in modo particolare in quelli finanziari. L’obiettivo di questo lavoro è quello di presentare il Lean Six Sigma applicato ai servizi analizzando i fattori critici di successo, i fattori ostativi, le barriere organizzative interne, le differenze tra il settore manifatturiero e quello dei servizi, gli strumenti, gli obiettivi e i benefici introdotti. Si vuole inoltre indagare l’applicazione di tale metodologia a un’azienda italiana di piccole e medie dimensioni esaminando le caratteristiche da tenere in considerazione durante la sua implementazione.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.
Resumo:
L'elaborato consiste nella traduzione di un un dépliant informativo sul mercato dei farmaci biotecnologici in Germania estratto dal sito ufficiale del gruppo vfa.bio. La traduzione è stata svolta simulandone la commissione per le seguenti finalità: informare i destinatari italiani che operano nello stesso tipo di mercato sul lavoro del gruppo vfa.bio; attirare finanziamenti esteri; informare e sensibilizzare il destinatario sulle scelte da operare in politica sanitaria a livello europeo per un miglior sviluppo di questo settore.
Resumo:
La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.
Resumo:
Questo documento si interroga sulle nuove possibilità offerte agli operatori del mondo delle Reti di Telecomunicazioni dai paradigmi di Network Functions Virtualization, Cloud Computing e Software Defined Networking: questi sono nuovi approcci che permettono la creazione di reti dinamiche e altamente programmabili, senza disdegnare troppo il lato prestazionale. L'intento finale è valutare se con un approccio di questo genere si possano implementare dinamicamente delle concatenazioni di servizi di rete e se le prestazioni finali rispecchiano ciò che viene teorizzato dai suddetti paradigmi. Tutto ciò viene valutato per cercare una soluzione efficace al problema dell'ossificazione di Internet: infatti le applicazioni di rete, dette middle-boxes, comportano costi elevati, situazioni di dipendenza dal vendor e staticità delle reti stesse, portando all'impossibilità per i providers di sviluppare nuovi servizi. Il caso di studio si basa proprio su una rete che implementa questi nuovi paradigmi: si farà infatti riferimento a due diverse topologie, una relativa al Livello L2 del modello OSI (cioè lo strato di collegamento) e una al Livello L3 (strato di rete). Le misure effettuate infine mostrano come le potenzialità teorizzate siano decisamente interessanti e innovative, aprendo un ventaglio di infinite possibilità per il futuro sviluppo di questo settore.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Questa tesi muove dal Piano di Adattamento ai Cambiamenti Climatici che il Comune di Bologna sta costruendo insieme ad altri tre partners attraverso il progetto life + BLUEAP. L’obiettivo della tesi è quello di presentare le evidenze attuali dei cambiamenti climatici nella situazione locale bolognese e vedere come la pianificazione urbanistica possa avere un ruolo importante nel prevenire e rallentare questi effetti e limitarne gli impatti a qualunque scala si intervenga; sia a livello di progetto urbano sia di politiche integrate ai piani urbanistici, si può tendere verso scelte “clima consapevoli”. Presenterò anche, quindi, una soluzione progettuale con comparazione del grado di resilienza dell’area prima e dopo l’intervento. L’ambito di studio e di progetto scelto è quello del fiume Reno, nel suo tratto di attraversamento urbano, perché mostra una serie di criticità legate al cambiamento climatico, rendendo evidenti i punti deboli e il livello di resilienza del sistema.
Resumo:
Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.
Resumo:
La presente tesi ha lo scopo di censire e classificare le principali attività di Cesena come Smart City, con particolare riguardo a quelle che hanno una componente tecnologica predominante. La tesi presenta le definizioni concetto di Smart City e le diverse articolazioni in ambiti che questo prevede. Scelta come chiave di lettura la classificazione più utilizzata in ambito internazionale, sono stati approfonditi i sei ambiti di azione in cui questa si articola: Smart Economy, Smart People, Smart Governance, Smart Mobility, Smart Enviroment, Smart Living. Inoltre, la tesi presenta le principali metodologie di valutazione utilizzate per comparare la smartness delle città, in contesto italiano ed europeo, nonché i criteri con cui queste valutazioni sono state applicate. Nel testo viene dato rilievo agli aspetti più legati alle nuove tecnologie ICT, viste come sostegno ed accelerante nei progetti attuati verso la smartness.
Resumo:
Gli elementi ludici aiutano a comprendere i bisogni del mondo in cui viviamo e rendono meno noiose quelle attività che normalmente non gratificano in modo sufficiente un individuo; la gamification viene definita come l'utilizzo di elementi di gioco in contesti non di gioco. In questo elaborato viene analizzato come si è evoluto il rapporto tra essere umano e gioco, come si è arrivati a definire la gamification e quali sono le parti atomiche che la compongono. Si analizzano diversi casi di successo in cui è stata implementata la gamification ed infine viene analizzato il mio progetto personale ParcheggioGratuito, in cui applico metodologie di gamification per facilitare il meccanismo di ricerca del parcheggio nella propria città.
Resumo:
Con il passare degli anni le tecnologie nel campo delle protesi mioelettriche di arto superiore stanno compiendo sempre più passi in avanti. In questo elaborato di tesi si darà un iniziale introduzione sulla protesica di arto superiore cercando di coprire tutte le possibili tipologie di protesi, prestando particolare attenzione agli arti artificiali mioelettrici. Gli scopi di questo studio sono in prima analisi una miglioria dell'unità di controllo di una protesi comandata da segnali elettromiografici di superficie, tramite l'utilizzo del nuovo IDE della Microchip (MPLAB X). In seconda analisi, invece, si attuerà un confronto prestazionale a livello di consumo in corrente di un prototipo di protesi mioelettrica nata dalla sinergia tra l'azienda "Selex ES" e il "Centro Protesi INAIL di Vigorso di Budrio". Per questo studio ci si è serviti di stereofotogrammetrica per la determinazione delle grandezze meccaniche, mentre tramite un sistema PAC si è riusciti ad ottenere specifiche grandezze elettriche. Lo studio ha portato, a livello di Firmware, l'inserimento del giusto comando di attuazione di un servofreno comandato in corrente e l'introduzione di una particolare modalità a basso consumo che consente un risparmio energetico di circa il 60% rispetto alla vecchia modalità. Discorso diverso per i risultati del confronto prestazionale che non ha portato ai risultati sperati in fase di progetto.
Resumo:
La tesi ha come obiettivo la riconnessione di parti di città frammentate e l'attribuzione ad esse di una identità. L'area di progetto si trova nella periferia sud di Rimini in prossimità dell'aeroporto. La ricerca, da un progetto generale dell'area, prosegue con la definizione architettonica del nuovo aeroporto interpretato come nuova porta per la riviera.
Resumo:
I materiali a base di carbone vengono utilizzati in catalisi come supporti per fasi attive, ma anche direttamente come catalizzatori essi stessi, grazie soprattutto alla versatilità delle loro proprietà di massa e superficiali. L’attività catalitica dei carboni è influenzata soprattutto dalla natura, dalla concentrazione e dall’accessibilità dei siti attivi tra cui i più comuni sono: gruppi funzionali superficiali, difetti, ed eteroatomi inseriti nella struttura. Per ridurre i problemi diffusionali legati alla microporosità dei carboni attivi sono in corso numerosi studi sulla sintesi di carboni mesoporosi, i quali possono fornire benefici unici come alta area superficiale ed elevato volume dei pori, uniti a buone proprietà chimiche e stabilità meccanica. Nel corso di questa tesi, sono state svolte diverse attività finalizzate principalmente alla preparazione e alla caratterizzazione di carboni mesoporosi da utilizzare in ambito catalitico. La sintesi di carboni porosi è stata eseguita con la metodologia soft-templating, un metodo basato sulla replica di un agente templante polimerico che si organizza in micelle attorno alle quali avviene la reticolazione di un precursore polimerico termoindurente. Precursore e templante vengono pirolizzati ad elevate temperature per rimuovere in un primo momento l’agente templante e successivamente carbonizzare il precursore. Sono state scelte due metodologie di sintesi riportate in letteratura con lo scopo di sintetizzare due tipologie di carboni. La sintesi Mayes è stata utilizzata per sintetizzare carboni mesoporosi classici, mentre la sintesi Hao è stata utilizzata per ottenere carboni porosi contenenti azoto. Le due sintesi sono state ottimizzate variando diversi parametri, tra cui il tempo di reticolazione (curing) e la temperatura di pirolisi. Sui diversi carboni ottenuti sono stati effettuati alcuni trattamenti superficiali di ossidazione al fine di modificarne la funzionalità. In particolare si sono utilizzati agenti ossidanti come HNO3, H2O2 e N2O.
Resumo:
L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.