548 resultados para gallerie, rischio, sicurezza, QRAM
Resumo:
Nel presente lavoro di tesi viene sviluppato un codice automatizzato in Matlab per la verifica di giunzioni bullonate soggette a carico secondo gli standard ECSS (European Cooperation for Space Standardization). In particolare è stata utilizzata un’interfaccia grafica GUI in Matlab, nella quale vengono inseriti i dati di input, per arrivare al calcolo dei margini di sicurezza, che sono i dati di output cercati. Il collegamento tra i dati di input e quelli di output è stato realizzato mediante lo sviluppo del codice sopracitato. Lo studio è stato limitato al caso di carichi assiali.
Resumo:
Il presente lavoro di tesi inizia da un’indagine svolta durante il Laboratorio di Sintesi Finale sulla città di Bogotá. Nello specifico ci si è occupati dello studio di una parte ristretta della città: la CUB, la città universitaria di Bogotá. Sì è in primo luogo analizzato gli aspetti salienti di quella parte di città, mettendone in evidenza sia gli elementi caratteristici che le criticità. Questo studio ha condotto alla definizione di alcune problematiche che, per importanza, sono state il centro del progetto successivamente proposto. La sintesi preliminare ha così prodotto una prima ipotesi progettuale che è stata il punto di partenza dello studio successivo. Nella fase successiva invece si è operato per un ulteriore approfondimento, passando sul piano reale e affrontando i temi scelti per l’area della Ciudad Universitaria de Bogotá. La CUB rappresenta il fulcro dell’offerta universitaria statale di Bogotá e i piani di sviluppo per il futuro la vedranno assoggettata ad un processo di forte saturazione delle aree ancora libere. Visto la dimensione di questo luogo, si è optato per la definizione di una possibile metodologia di intervento, più soddisfare il desiderio (a volte irrinunciabile) di ridefinizione della sua struttura interna, oggi particolarmente degradata. L’idea trova il suo senso anche nel desiderio di potere generare una maggiore integrazione tra l’uso degli spazi della CUB e i cittadini, che attualmente sono esclusi, primariamente per ragioni di sicurezza, dalla possibilità di godere di questo luogo. Il testo mette in evidenza, mediante un processo per tappe, il percorso intellettuale che ha portato alla definizione delle scelte progettuali rappresentate nelle tavole finali.
Resumo:
Il disagio e le conflittualità sociali presenti nelle nostre città in molteplici casi hanno come teatro le aree verdi e gli spazi non costruiti presenti sul territorio urbano, percepiti spesso da un lato come luoghi non controllati e quindi conquistabili, dall’altro lato, come luoghi trascurati e quindi non sicuri, infrequentabili. Uno sguardo complessivo a queste aree che ne ribalti la prospettiva valorizzandone le potenzialità, può portare ad un progetto coordinato in cui si cerchi di incrementare e sostenere alcune funzioni ritenute capaci di superare le criticità presenti. In quest’ottica un progetto complessivo di paesaggio che non consideri il non costruito come una spazio residuale, ma come un elemento capace di una relazione attiva con il contesto urbano, può contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali, al miglioramento dell’offerta di luoghi di ritrovo, all’aumento della sicurezza urbana. Negli ultimi anni, la sensibilizzazione nei confronti dei problemi connessi con la salvaguardia dell’ambiente ha portato a un considerevole incremento delle aree protette e delle zone destinate a verde all’interno delle aree urbanizzate. Spesso però si considerano queste zone, in particolare i parchi e le riserve, come luoghi non totalmente fruibili dalla popolazione, anche al di là delle specifiche e corrette esigenze di conservazione. Questa impostazione rischia di mettere in crisi anche attività economiche orientate alla gestione sostenibile del territorio come nel caso dell’agricoltura. In realtà, uno degli errori che si commette più di frequente è quello di considerare le aree verdi e quelle antropizzate come entità fini a sé stesse mentre una positiva coesistenza può essere realizzata solo se si consente una loro positiva interazione dinamica, coniugando esigenze di conservazione e salvaguardia delle attività sociali ed economiche e fornendo stimoli alla riconversione delle attività non compatibili con l’ambiente. Un mezzo per perseguire tale scopo è, sicuramente, quello di proporre ai comuni forme alternative di difesa e gestione dell’ambiente, valorizzando la naturale vocazione del territorio. Vista la notevole incidenza percentuale sulla superficie complessiva, risulta di particolare importanza la tutela e la rivalutazione delle realtà rurali che, ormai da lungo tempo, subiscono l’inarrestabile fenomeno dell’espansione edilizia e sono costrette ad una difficile convivenza con la periferia urbana.
Resumo:
Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.
Resumo:
L’ictus rappresenta una delle principali cause di invalidità poiché compromette la deambulazione, incrementando l’incidenza di cadute nei soggetti colpiti. Lo studio della stabilità motoria è fondamentale per l’identificazione dei soggetti a rischio di caduta. I diversi indicatori clinici attualmente utilizzati negli ospedali non sono in grado di fornire una valutazione quantitativo predittiva della stabilità della deambulazione. Lo scopo di questa tesi è indagare una serie di misure sperimentali e valutarne il possibile utilizzo ad integrazione o sostituzione di scale cliniche per l’analisi della stabilità motoria e la prevenzione del rischio di cadute. Analizzando il segnale di accelerazione del centro di massa corporeo di 33 soggetti post stroke sono stati ottenuti gli indici strumentali di interesse. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) e indici strumentali. Lo studio presente ha reso note importanti correlazioni tra parametri clinici e strumentali, che permettono di affermare l’utilità di tali indici strumentali per una valutazione dei soggetti a rischio di caduta.
Resumo:
Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.
Resumo:
In questo elaborato si affrontano problematiche cliniche legate ai traumi gravi della cute in cui è necessario intervenire chirurgicamente per ripristinare una situazione normale: si approfondisce lo studio della fisiologia del tessuto, la classificazione dei gradi delle ustioni della pelle, la guarigione delle ferite e la meccanica della cute. Il trapianto di tessuto autologo costituisce la soluzione più efficace e con minori complicazioni. Tuttavia il paziente potrebbe non presentare una superficie di cute disponibile sufficientemente estesa, per cui si ricorre ad altri metodi. In primo luogo, si effettuano degli allotrapianti di tessuto di donatore cadavere prelevati secondo le normative vigenti e conservati attraverso le varie tecniche, il cui sviluppo ha consentito una durata di conservazione maggiore; mentre la glicerolizzazione abbatte al 100% il rischio di trasmissione di patologie e lo sviluppo di microorganismi, la crioconservazione preserva la vitalità del tessuto. La chirurgia utilizzata per queste operazioni si avvale di tecnologie innovative come la Tecnologia a Pressione Negativa. Un'alternativa necessaria per sopperire all'ingente richiesta di tessuto di donatore sono i sostituti cutanei, che presentano un grande potenziale per il futuro. Per eliminare totalmente il rischio di rigetto sarebbe necessario personalizzare il costrutto utilizzando cellule autologhe, ma la ricerca è stata rallentata da minori investimenti da parte dell'industria biomedica, che si è maggiormente focalizzata sulla realizzazione di prodotti utilizzabili da un più ampio raggio di pazienti. Per queste ragioni, l'ingegneria tissutale della cute ha trovato più ampio campo di applicazione nel sistema dei test in vitro. A tale scopo sono stati creati dei protocolli certificati per testare la corrosività, la irritabilità e la vitalità del tessuto cutaneo, quali EpiDerm, EpiSkin e SkinEthic che si avvalgono dell'uso del metodo MMT e della spettrofotometria, che è diventata un supporto fondamentale per le scienze biologiche.
Resumo:
La presente tesi si inserisce nel contesto del progetto europeo Theseus, che ha l’obiettivo di pianificare strategie di difesa sostenibili nei confronti dell’erosione costiera e del rischio di inondazioni. E’ stata indagata la zona intertidale di sei spiagge della costa emiliano-romagnola, diverse per caratteristiche morfodinamiche, grado di antropizzazione e modalità di gestione contro l’erosione. Lido di Spina, Bellocchio e lido di Dante sono siti più naturali, Cervia, Cesenatico e Cesenatico sud sono antropizzati per la presenza di strutture di difesa costiera o attività di bulldozing. Lo scopo principale è stato quello di valutare la risposta della componente macrobentonica a variazioni morfodinamiche conseguenti alla differente gestione. I principali risultati possono essere così riassunti. Bellocchio, sito naturale, si è rivelato il più differente per tipologia di sedimento, fine e argilloso, e comunità presenti, con specie non tipiche delle spiagge sabbiose, quali Polydora e Mytilus galloprovincialis. Lido di Dante, anch’esso naturale, si pone all’opposto, con un sedimento più grossolano e caratterizzato sia dalla dominanza di Lentidium mediterraneum, la cui presenza evidenzia il maggiore grado di idrodinamismo del sito, sia dalle specie Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose esposte al moto ondoso. Cervia, Cesenatico e Cesenatico sud presentano un numero di specie e di individui minore rispetto agli altri siti, come probabile conseguenza della gestione antropica, e comunità che rispecchiano le variazioni idrodinamiche dovute alla presenza di barriere. In generale, le differenze individuate sia fra le comunità che fra i descrittori sedimentari e morfodinamici, sembrano dovute alle caratteristiche peculiari dei siti e dal grado di antropizzazione piuttosto che dalla presenza di un vero e proprio gradiente morfodinamico o geografico. Questi risultati portano un contributo sostanziale alla problematica generale dell’impatto conseguente ai cambiamenti climatici e alla messa in opera di programmi di gestione sostenibili da un punto di vista anche ambientale.
Resumo:
L’elevata presenza dei residui dei farmaci nell’ambiente acquatico desta preoccupazione per la salute della fauna acquatica e per un eventuale rischio per l’uomo. Dopo l’assunzione, i farmaci vengono escreti come tali o come metaboliti attivi, risultando spesso resistenti ai processi di trattamento delle acque. Per questo motivo alcuni di essi sono pseudo-persistenti raggiungendo concentrazioni di ng-µg/L. I farmaci sono molecole disegnate per essere biologicamente attive a basse concentrazioni su bersagli specifici, per questo motivo possono indurre effetti anche su specie non target con bersagli molecolari simili all’uomo a concentrazioni ambientali. A tal proposito il presente lavoro intende investigare gli effetti della caffeina, ampiamente usata come costituente di bevande e come farmaco, presente nelle acque superficiali a concentrazioni di ng-µg/L. Come organismo di studio è stato scelto il Mytilus galloprovincialis, sfruttando le conoscenze disponibili in letteratura circa le sue risposte ai contaminanti ambientali. I mitili sono stati esposti in acquario a caffeina (5, 50 e 500 ng/L) per 7 giorni e poi analizzati attraverso una batteria di otto biomarker, alterazioni fisiologiche o biochimiche che forniscono informazioni circa lo stato di salute degli animali. I metodi utilizzati sono stati diversi a seconda dei biomarker (analisi citochimiche e saggi enzimatici). Le concentrazioni sono state scelte nel range ambientale. L’esposizione ha prodotto alterazioni della stabilità della membrana lisosomiale negli emociti e l’instaurarsi di processi di detossificazione nella ghiandola digestiva, evidenziati dall’aumento dell’attività della glutatione S-transferasi. Gli altri biomarker non mettono in evidenza che la caffeina, in queste condizioni sperimentali, possa indurre alterazioni della funzionalità lisosomiale, effetti ossidativi o neurotossici. I dati ottenuti sui mitili, quindi, suggeriscono che la caffeina, anche nel range di concentrazioni ambientali più elevato, possa essere considerata un contaminante che desta bassa preoccupazione.
Resumo:
Le finte pelli sono sistemi costituiti da vari strati, il cui componente principale è il PVC. La produzione delle finte pelli richiede l’utilizzo di un elevato numero di additivi; per ognuno di essi occorre valutare la quantità da utilizzare, l’efficienza in rapporto al suo costo e, non di minore importanza, il suo grado di tossicità. Gli additivi attualmente utilizzati nella produzione delle finte pelli, che presentano problemi legati alla sicurezza sono: gli ftalati (plastificanti), l’azodicarbonammide (agente espandente) e il triossido di antimonio (agente antifiamma). Il lavoro di tesi è stato incentrato sullo studio di queste materie prime allo scopo di trovare delle valide alternative rispetto ai composti standard, in relazione agli attuali (e probabili futuri) requisiti del REACH e produrre una finta pelle “migliorata” in termini di prestazioni e sicurezza.
Resumo:
Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.
Resumo:
L’obiettivo che si pone questa tesi è quello di analizzare alcune soluzioni esistenti riguardo i problemi riguardanti privacy e sicurezza informatica. Nello specifico sarà illustrato il programma Tor, un sistema di comunicazione grazie al quale si garantisce l’anonimato in Internet. Sponsorizzato inizialmente dall’US Naval Research Laboratory, all’origine veniva utilizzato per poter effettuare comunicazioni militari criptate; è stato successivamente un progetto della Electronic Frontier Foundation ed ora è gestito da The Tor Project, un’associazione senza scopo di lucro che si occupa del relativo sviluppo. Le ricerche e gli sviluppi riguardanti questa tecnologia vengono tuttavia resi difficili da problemi di scalabilità e dalla difficoltà di riprodurre risultati affidabili. Nel corso della tesi saranno illustrati gli studi riguardanti il simulatore Shadow, un progetto Open Source gestito da The Tor Project, che permette la simulazione del protocollo Tor. I risultati ottenuti dai test effettuati sul simulatore, possono essere riapplicati in seguito alla rete reale Tor, poiché grazie a Shadow è possibile testare ed ottenere risultati attendibili circa il comportamento e la corretta esecuzione del software Tor.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.