794 resultados para Realtà aumentata metodologie di progetto settore aerospaziale
Resumo:
La dissertazione affronterà il tema del controllo qualità nei progetti, applicando conoscenze, tecniche e strumenti propri del Project e del Multiproject Management. L’analisi partirà svolgendo, nel primo capitolo, considerazioni introduttive riguardo le due discipline citate. Lo scopo ultimo sarà quello di elaborare un sistema di controllo integrato della qualità, indirizzato principalmente al Project Management che è presente in una qualsiasi organizzazione che opera per progetti. Nel secondo capitolo verrà illustrato il metodo denominato Multidimensional Project control System sul quale il modello sviluppato in seguito si basa. La progettazione di un sistema di controllo è una parte importante dello sforzo di gestione di un progetto. Tale sistema è basato su una serie di obiettivi di progetto e sulla loro importanza relativa e fonda la sua natura su una sistematica valutazione in corso d’opera dello stato di conformità del progetto, sia a livello di processo che a livello di output. Nel capitolo conclusivo si affronta l’obiettivo principale di questo elaborato. Sono stati forniti dati e documenti dall’azienda Despar Italia c.r.l. ed è stato chiesto di sviluppare un metodo di controllo che il Project Management potesse utilizzare per implementare un processo di verifica della qualità di progetto. Viene quindi descritta l’azienda, come il Management pianifica, gestisce e controlla i progetti e quali necessità devono essere soddisfatte. Si procede poi con l’illustrazione e spiegazione del metodo sviluppato, chiarito da un esempio esplicativo. L’elaborato si concluderà con delle riflessioni finali, proponendo critiche e spunti per eventuali sviluppi futuri.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Dopo un'introduzione sulla neccessità di ottimizzare i consumi energetici relativi all'ambito edilizio, si analizza attraverso due differenti metodologie di calcolo (dinamica/stazionaria) i fabbisogni energetici di una palazzina costituita da 15 appartamenti. Sono stati utilizzati Trnsys 17 e Termus.
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
L'elaborato ha come scopo l'analisi delle tecniche di Text Mining e la loro applicazione all'interno di processi per l'auto-organizzazione della conoscenza. La prima parte della tesi si concentra sul concetto del Text Mining. Viene fornita la sua definizione, i possibili campi di utilizzo, il processo di sviluppo che lo riguarda e vengono esposte le diverse tecniche di Text Mining. Si analizzano poi alcuni tools per il Text Mining e infine vengono presentati alcuni esempi pratici di utilizzo. Il macro-argomento che viene esposto successivamente riguarda TuCSoN, una infrastruttura per la coordinazione di processi: autonomi, distribuiti e intelligenti, come ad esempio gli agenti. Si descrivono innanzi tutto le entità sulle quali il modello si basa, vengono introdotte le metodologie di interazione fra di essi e successivamente, gli strumenti di programmazione che l'infrastruttura mette a disposizione. La tesi, in un secondo momento, presenta MoK, un modello di coordinazione basato sulla biochimica studiato per l'auto-organizzazione della conoscenza. Anche per MoK, come per TuCSoN, vengono introdotte le entità alla base del modello. Avvalendosi MoK dell'infrastruttura TuCSoN, viene mostrato come le entità del primo vengano mappate su quelle del secondo. A conclusione dell'argomento viene mostrata un'applicazione per l'auto-organizzazione di news che si avvale del modello. Il capitolo successivo si occupa di analizzare i possibili utilizzi delle tecniche di Text Mining all'interno di infrastrutture per l'auto-organizzazione, come MoK. Nell'elaborato vengono poi presentati gli esperimenti effettuati sfruttando tecniche di Text Mining. Tutti gli esperimenti svolti hanno come scopo la clusterizzazione di articoli scientifici in base al loro contenuto, vengono quindi analizzati i risultati ottenuti. L'elaborato di tesi si conclude mettendo in evidenza alcune considerazioni finali su quanto svolto.
Resumo:
Attualmente Usme, caratterizzata come visto da un territorio principalmente a bassa densità, è ancora fortemente relazionata con la campagna perché costituita dall’insieme di aree agricole, o di quelli che una volta erano spazi coltivati più prossimi alla città compatta. Questo tipo di paesaggio rurale che caratterizza Usme è caratterizzato come già visto da un tessuto sfrangiato e discretizzato e rappresenta la porzione di territorio dove la città esercita l’impatto ambientale più intenso dovuto sia alla sua immediata vicinanza al contesto urbano che al carattere di scarsa identità che sembra esprimere. Qualunque intervento architettonico in un territorio di margine come quello di Usme dovrebbe confrontarsi con un sistema di relazioni a grande scala, che si rapporti con la geografia stessa del luoghi e con un orientamento e una misurazione visiva e fisica del territorio stesso. Allo stesso modo è necessario che il progetto comprenda anche il suolo stesso delle grande aree attualmente lasciate libere, ovvero che il progetto architettonico si integri con il progetto paesaggistico creando in questo modo nuove relazioni e nuove geometrie nell’assetto territoriale. In questo senso il progetto può dialogare con il territorio e mettere in relazione differenti situazioni morfologiche, sfruttandone le potenzialità. L’obiettivo è quindi quello di non costruire semplici volumi appoggiati sulla terra ma quello di modificare la terra stessa, entrando in relazione con essa in modo profondo. Il progetto così inteso è concepito, e prima ancora letto, secondo strati, i quali possono contaminarsi o possono semplicemente sovrapporsi. L’area di progetto, come già detto, è essenzialmente all’interno di un vuoto presente tra le due parti di città. Il nuovo edificio si conforma come un segno netto nel territorio, un viadotto, un tronco d’albero caduto che protegge il parco dalla città, un elemento primordiale che da una parte si incunea nel terreno e dall’altra si affaccia sulla valle. Vuole essere il segno di un naturale artificio, proponendosi al tempo stesso come simbolo e funzione. Il museo emerge dalla terra, ma sembra anche immergersi in essa. L’architettura del museo crea un nuovo paesaggio morfologicamente radicato al suolo, attraverso uno spazio parzialmente ipogeo che integra il museo all’interno della montagna attraverso la copertura continua con la topografia esistente, sottolineando il profilo della collina.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Presentazione di alcune delle principali metodologie di controllo per motori ad accensione per compressione, che utilizzano il segnale di pressione cilindro come punto di partenza. Infatti, è dalla rilevazione di questo che è possibile gestire il rilascio di energia all'interno della camera di combustione.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Lo scopo della tesi è la progettazione e lo sviluppo di una web app che consenta a degli utenti (ristoratori) di registrare le prenotazioni del proprio locale, per potervi accedere successivamente. Il risultato ottenuto rispetta i vincoli di progetto e fornisce una soluzione efficiente al problema.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.