245 resultados para 616.5 Malattie del tegumento, dei peli, delle unghie
Resumo:
Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.
Resumo:
In questa tesi faremo prima una panoramica sui dispositivi medici e, in particolare, andremo ad approfondire l’aspetto del software come dispositivo medico; successivamente andremo ad analizzare il sistema, definito “nuovo approccio”, che regolamenta l’immissione in commercio dei dispositivi medici all’interno del mercato europeo per andare poi ad analizzare la parte sulla gestione del rischio che è fondamentale per raggiungere la conformità soprattutto quando si tratta di dispositivi medici. Nel secondo capitolo, andremo poi ad analizzare il report tecnico IEC 80002-1 del 2009 che fornisce una guida, destinata al software, per l’applicazione dei requisiti contenuti nella normativa CEI UNI EN ISO 14971:2007. Nel terzo capitolo, visto il sempre maggior numero di dispositivi medici dotati di interfaccia di rete andremo ad analizzare il report tecnico IEC 80001 del 2009 per la gestione dei rischi delle reti IT medicali che incorporano tali dispositivi rivolto alle aziende ospedaliere.
Resumo:
L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
«Così una circoncisione del Guercino mi ha fatto una profonda impressione, perché già conosco ed amo questo maestro. Gli ho perdonato il soggetto antipatico e ho goduto dell’esecuzione», commentò Goethe nel suo Viaggio in Italia, quando passò per Bologna tra il 18 ed il 20 ottobre 1786. Lo scrittore tedesco fu una delle ultime personalità che poté ammirare l’opera che campeggiava sull' altare maggiore della chiesa di Gesù e Maria, autentico tempio del barocco bolognese, oggi scomparso. L’abbattimento del complesso intervenne infatti all’inizio del XIX secolo con la conseguente dispersione dell’intero corpo iconografico e del materiale mobiliare, a testimonianza della qualità e del pregio, non solo delle opere un tempo contenute all’interno, ma anche della struttura architettonica. L’interesse alla chiesa di Gesù e Maria è stato determinato dal forte impatto che l’edificio ed il suo apparato ebbe sui contemporanei, come dimostrano efficacemente i testi di letterati e cronisti bolognesi coevi, quali Carlo Cesare Malvasia e Antonio Masini. Per quanto riguarda invece la celebre pala d’altare del Guercino, oltre a Goethe, anche Stendhal ne valutò l’importanza riportandola come una tra le più belle di Bologna. La finalità di questa tesi di laurea, dunque, è quella di far luce sulla vita di questa opera, a partire dalle testimonianze dirette, ricavate dalla comparazione dei documenti dispersi in diversi fondi archivistici di Bologna, indagando soprattutto sulla possibile “paternità” del progetto.
Resumo:
L’obbiettivo del lavoro è la messa a punto di membrane polimeriche nanoporose funzionalizzate con la N-metil-D-glucamina (NMDG), per la rimozione dell’arsenico dalle acque. Al fine di ottenere membrane con proprietà di filtro molecolare selettivo, si è deciso di sfruttare la capacità della NMDG di chelare selettivamente gli ossianioni dell’arsenico. La NMDG è stata funzionalizzata in maniera da ottenere due monomeri: metacrilato della N-metil-D-glucammina e 4-vinilbenzil-N-metil-D-glucammina, sui quali è stata effettuata una sililazione dei gruppi ossidrilici della glucammina in maniera da ottenere composti liquidi e quindi adatti al processo produttivo delle membrane. Con l’obbiettivo di ottenere un elevata area superficiale la morfologia della membrana è stata controllata mediante imprinting di nanoparticelle di silice colloidale. La cattura del arsenico da parte delle membrane polimeriche è stata valutata mediante analisi di assorbimento atomico a seguito dell’attacco acido con HF 5% che rimuove le particelle di silice ed i gruppi protettori.
Resumo:
La nostra tesi propone un progetto di riqualificazione funzionale ed energetica di una porzione dell’area dismessa delle Ex Officine Reggiane a Reggio Emilia che comprende uno spazio scoperto di circa 42.500 m2 e un fabbricato, nel quale proponiamo di realizzare il museo delle officine, spazi per esposizioni temporanee e il nuovo polo archivistico di Reggio Emilia. Le Officine Meccaniche Reggiane sono state un polo industriale di particolare rilevanza a livello nazionale ed internazionale, diventando negli anni ’40 la quarta potenza industriale italiana dopo Fiat,Ansaldo e Breda. Dismesse dal 2009, si presentano oggi come un’area abbandonata di ben 260.000 m2 nella quale convivono la memoria e la speranza futura di rilancio della città di Reggio Emilia nel panorama europeo. Sulle tracce dei progetti già messi in atto dall’Amministrazione comunale, abbiamo fornito una proposta progettuale che consideri le vocazioni funzionali dell’area e le strategie energetiche possibili per rendere il progetto sostenibile sia dal punto di vista ambientale che dal punto di vista economico. Il lavoro è partito dalla definizione di un quadro conoscitivo dell’area attraverso una prima fase di analisi a livello territoriale e microclimatico servendosi per queste ultime del software di simulazione in regime dinamico ENVI-met. Questa prima fase si è conclusa con l’elaborazione di un masterplan, in seguito al quale ci siamo soffermate sul progetto di riqualificazione del capannone 15 e del grande spazio vuoto antistante ad esso. L’intervento sul costruito si può riassumere in tre parole chiave: conservare, aggiornare, integrare. Abbiamo scelto infatti di mantenere la robusta e ritmata struttura in acciaio, ripensare l’involucro edilizio in termini di una maggiore efficienza energetica e confinare i locali climatizzati in volumi autoportanti, garantendo, nell’atrio, condizioni di comfort termico accettabili unicamente attraverso strategie energetiche passive. Per verificare l’effettiva opportunità della soluzione ipotizzata ci siamo servite del software di simulazione fluidodinamica IES VE, il quale, attraverso la simulazione oraria del cambiamento dei parametri ambientali più rilevanti e degli indicatori di benessere (PMV, Comfort index, PPD..), ha confermato le nostre aspettative verificando che non è necessario intervenire con l’introduzione di sistemi di climatizzazione convenzionale. Per quanto riguarda i padiglioni entro i quali sono pensate le attività di servizio e supporto al museo e l’archivio, è stata verificata la soddisfacente prestazione energetica raggiunta attraverso l’utilizzo del software Termolog Epix5, il quale ha attestato che essi rientrano nella classe A con un consumo energetico di 4,55 kWh/m3annuo.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.
Resumo:
I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.
Resumo:
La città di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessità di ripensare il ruolo dell’infrastruttura nella contemporaneità e nell’atteggiamento che l’architettura può assumere di fronte alle rinnovate priorità delle città italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre più di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga l’obiettivo primario di dialogare con il futuro. Il capoluogo Emiliano è collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non può in alcun modo rinunciare. Ogni giorno una quantità spropositata di pendolari e viaggiatori è indotta nella città concentrandosi in un primo momento nell’area della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi all’interno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. L’intento principale del masterplan proposto è quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si è notato come le aree più degradate della città (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne l’integrazione e l’impatto urbano e ambientale) manchino di una circolazione costante e di attività. Si è identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di un’importante parte della città. Poiché progettare per un futuro prossimo è pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non può che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.
Resumo:
L’aumento della pressione parziale di anidride carbonica in atmosfera e il conseguente aumento dell’idrolisi di CO2 nell’acqua marina, noto come “acidificazione degli oceani", consiste nella diminuzione del pH e nella riduzione dello stato di saturazione delle acque (Ω) rispetto al carbonato di calcio (CaCO3). Il Golfo di Napoli è caratterizzato da elevati livelli di CO2 dovuti alla presenza di emissioni naturali di gas (vents), è perciò considerato un laboratorio naturale per prevedere gli effetti futuri sugli organismi marini dovuti all’aumento della acidificazione degli oceani. Questo lavoro di tesi valuta, per la prima volta, l’effetto dei vents sugli pteropodi Thecosomata (gasteropodi planctonici). Data la loro necessità di ioni carbonato per produrre la conchiglia, questi sono considerati “organismi sentinella” per i cambiamenti del sistema dei carbonati nell’ambiente marino. Gli pteropodi sono stati campionati e successivamente analizzati in termini di abbondanza specifica, dimensione e stato di degradazione della conchiglia. I principali risultati hanno mostrato che dalle stazioni di controllo alle zone con presenza di emissioni gassose, vi è un gradiente di diminuzione dei livelli di pH e Ωar, nonostante in nessuna stazione siano presenti livelli di sottosaturazione carbonatica. Gli pteropodi diminuiscono in termini di abbondanza e biodiversità presentando una conchiglia con livelli di dissoluzione elevata nelle stazioni adiacenti alle emissioni gassose, mentre lo stato di preservazione della conchiglia aumenta all’aumentare della distanza dalle zone di emissione, suggerendo che la variazione dello stato di saturazione nelle diverse stazioni, influenzi i processi di calcificazione dell’organismo. Gli effetti negativi delle emissione gassose sugli pteropodi potrebbero a lungo termine risultare in uno shift di popolazioni a vantaggio di organismi planctonici non calcificanti.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).