938 resultados para gallerie, rischio, sicurezza, QRAM
Resumo:
Mode of access: Internet.
Resumo:
Gli obiettivi della presente ricerca sono stati l’identificazione di un protocollo per la conservazione ex situ e lo studio delle risposte fisiologiche allo stress salino di due specie endemiche della regione Liguria, di particolare interesse poiché protette e a rischio d’estinzione. Sia il Limonium cordatum che il Convolvulus sabatius vivono in condizioni naturali particolari, infatti, sono costantemente esposte agli aerosol marini, che presentano elevate concentrazioni di NaCl, per tali ragioni si è cercato di comprendere quali fossero i meccanismi di risposta delle due specie allo stress salino; da ultimo, se presentassero risposte simili, visto l’habitat comune che condividono. Per capire in modo più approfondito le risposte fisiologiche delle due piante, è stato anche preso in considerazione l’habitat naturale per cogliere eventuali differenze nella zona di crescita, per esempio maggiore e/o minore esposizione agli spruzzi marini di una piuttosto che dell’altra. Per il raggiungimento di tali obiettivi si è proceduto con: •L’utilizzo della coltura in vitro per comprendere i meccanismi responsabili della tolleranza e/o dell’adattamento allo stress salino, che ha permesso di confrontare le due specie in un ambiente controllato con la sola variabile della concentrazione salina. Per valutare tali risposte si sono effettuate delle indagini morfologiche, istologiche e fisiologiche; • L’identificazione delle condizioni ambientali migliori per la possibile reintroduzione, sia con l’uso della coltura in vitro, che ha permesso di stabilire il valore soglia di tolleranza della concentrazione di NaCl di entrambe le specie, che con sopralluoghi in loco, per individuare eventuali situazioni differenti tra le due specie, che giustificassero risposte diverse tra di esse. Nel caso del Convolvulus sabatius, essendo il suo areale di crescita più limitato e, volendo quindi approfondire le condizioni ambientali naturali di crescita, si è provveduto a simulare l’habitat autoctono con prove in vivo.
Resumo:
Questo lavoro tratta dei tassi e della rischiosità delle imprese. In particolare, si esamina il collegamento esistente fra i tassi a medio-lungo termine europei e quelli americani e come ad esempio i tassi d’interesse forward dell’Eurirs derivino dall’euro e dalla struttura a termine dei tassi IRS sul dollaro. Le tecniche econometriche applicate sono la cointegrazione, la causalità di Granger, il GMM, il metodo di Rigobon e Sack (2004). Nella seconda parte si introduce una relazione per la stima dell’EONIA prima e durante la politica di full allottment della BCE. Nell’analisi empirica si usano tre differenti stimatori: OLS, Tobit e NLS e si considera il fatto che l’EONIA si muove all’interno del corridoio dei tassi, (formato dal tasso sui deposit facilities e sui marginal lending). L’ultima parte è dedicata allo studio della rischiosità delle imprese per mezzo dei principali indicatori di rischio (le tre formulazioni dello Z score di Altman e l’indice di Ohlson) a livello italiano ed europeo. I metodi d’analisi statistica utilizzati sono la regressione quantile, il Logit e il Probit.
Resumo:
L'obiettivo principale della politica di sicurezza alimentare è quello di garantire la salute dei consumatori attraverso regole e protocolli di sicurezza specifici. Al fine di rispondere ai requisiti di sicurezza alimentare e standardizzazione della qualità, nel 2002 il Parlamento Europeo e il Consiglio dell'UE (Regolamento (CE) 178/2002 (CE, 2002)), hanno cercato di uniformare concetti, principi e procedure in modo da fornire una base comune in materia di disciplina degli alimenti e mangimi provenienti da Stati membri a livello comunitario. La formalizzazione di regole e protocolli di standardizzazione dovrebbe però passare attraverso una più dettagliata e accurata comprensione ed armonizzazione delle proprietà globali (macroscopiche), pseudo-locali (mesoscopiche), ed eventualmente, locali (microscopiche) dei prodotti alimentari. L'obiettivo principale di questa tesi di dottorato è di illustrare come le tecniche computazionali possano rappresentare un valido supporto per l'analisi e ciò tramite (i) l’applicazione di protocolli e (ii) miglioramento delle tecniche ampiamente applicate. Una dimostrazione diretta delle potenzialità già offerte dagli approcci computazionali viene offerta nel primo lavoro in cui un virtual screening basato su docking è stato applicato al fine di valutare la preliminare xeno-androgenicità di alcuni contaminanti alimentari. Il secondo e terzo lavoro riguardano lo sviluppo e la convalida di nuovi descrittori chimico-fisici in un contesto 3D-QSAR. Denominata HyPhar (Hydrophobic Pharmacophore), la nuova metodologia così messa a punto è stata usata per esplorare il tema della selettività tra bersagli molecolari strutturalmente correlati e ha così dimostrato di possedere i necessari requisiti di applicabilità e adattabilità in un contesto alimentare. Nel complesso, i risultati ci permettono di essere fiduciosi nel potenziale impatto che le tecniche in silico potranno avere nella identificazione e chiarificazione di eventi molecolari implicati negli aspetti tossicologici e nutrizionali degli alimenti.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
L’obiettivo di questa tesi è quello di inquadrare la sismicità e la pericolosità sismica nella zona del Bolognese studiandola dal punto di vista geologico e tettonico, analizzando i terremoti passati e classificandola, infine, dal punto di vista del rischio sismico.
Resumo:
Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.
Resumo:
Il presente lavoro di tesi nasce dall’esigenza di comprendere e studiare come viene affrontata, e gestita, l’emergenza in mare derivante dallo sversamento accidentale, o volontario, di idrocarburi; il sistema di risposta nazionale a questo genere di emergenze si sviluppa su più livelli e per ogni livello sono individuati gli organi responsabili e i relativi compiti. Le azioni da intraprendere sono specificate negli elaborati di pianificazione redatti dall’Agenzia Nazionale di Protezione Civile, dal Ministero dell’Ambiente e della Tutela del territorio e del Mare, dalle Capitanerie di Porto Locali, dalle Province e dai Comuni; i primi 3 si occupano dell’emergenza in mare, mentre le Province e i Comuni si occupano degli interventi da attuare sulla costa in seguito allo spiaggiamento degli idrocarburi. La regione Emilia-Romagna, in particolare, non possiede elaborati di pianificazione per la gestione del rischio di inquinamento costiero; per questo motivo, sulla base delle indicazioni riportate negli elaborati di pianificazione nazionale e consultando elaborati già esistenti di altre regioni adriatiche, è stata redatta una proposta di linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il rischio di inquinamento costiero. Per poter prevedere quale tecnica di bonifica sarà possibile applicare ad uno sversamento di idrocarburi, esistono software che modellano i processi chimico-fisici che la sostanza subisce con il passare del tempo. Ogni tecnica ha dei limiti sia di efficienza che di applicabilità; essi sono principalmente dovuti alle condizioni meteomarine e ai processi che la sostanza subisce nel tempo una volta sversata; la conoscenza di questi limiti permette di effettuare, nella maggior parte delle situazioni, la scelta della tecnica di intervento più appropriata ed efficiente a seconda della situazione. La tesi è strutturata come segue. Nel Capitolo 1 sono descritte le problematiche e le cause relative agli incidenti in mare che comportano il rilascio di idrocarburi in esso e gli effetti che questi hanno sull’ambiente e i cambiamenti che la sostanza subisce una volta sversata in mare. Nel Capitolo 2 sono descritte le strategie di intervento per il recupero degli idrocarburi sversati in mare e le tecniche di bonifica attuabili sulla costa impattata dallo sversamento. Nel Capitolo 3 è illustrato il sistema di risposta nazionale all’emergenza derivante dallo sversamento in mare di idrocarburi; ad ogni livello è dedicato un paragrafo del Capitolo 3. Inoltre sono presentate delle linee guida per la redazione di un Piano Comunale d’Emergenza che preveda il Rischio di Inquinamento Costiero da idrocarburi e altre sostanza nocive. Nel Capitolo 4 è illustrato il software ADIOS 2 che permette di modellare i processi chimico-fisici che la sostanza subisce quando viene sversata in mare e di simulare l’utilizzo di alcune strategie di intervento. Nel Capitolo 5 sono riportate le considerazioni conclusive e i risultati ottenuti.
Resumo:
Prodotti di IV gamma a base di frutta e verdura minimamente trattati o pronti all'uso non possono essere considerati sicuri da un punto di vista microbiologico e sono stati spesso associati a casi di tossinfezione. Per tali episodi è stato evidenziato che la qualità dell'acqua utilizzata per il lavaggio è una fase critica. D'altra parte è noto che la disinfezione è una delle fasi di lavorazione più importanti per i prodotti minimamente trattati in quanto ha effetti diretti sulla qualità dei prodotti finiti, sulla sicurezza e la loro shelf-life. Tradizionalmente, l'industria di IV gamma ha impiegato i composti derivati del cloro per la fase di disinfezione in virtù della loro efficacia, semplicità d'uso e basso costo. Tuttavia vi è una diffusa tendenza ad eliminare i prodotti a base di cloro a causa soprattutto della preoccupazione in relazione ai rischi ambientali e sanitari per il consumatore associati alla formazione di sottoprodotti alogenati cancerogeni. Tra le varie tecnologie emergenti, proposte come alternative al cloro, il plasma ha presentato buone potenzialità in virtù delle specie chimiche che lo compongono, principalmente specie reattive dell’ossigeno e dell’azoto, che sembrano essere responsabili di stress ossidativo alle cellule microbiche, con conseguenti danni per DNA, proteine e lipidi. L’obiettivo generale di questo elaborato finale è stato quello di valutare la possibilità di utilizzare la tecnologia del plasma per la decontaminazione superficiale di carote julienne. In particolare si sono presi in considerazione trattamenti diretti in cui il vegetale è stato esposto al plasma per differenti tempi compresi tra 5 e 40 minuti. Inoltre, si è utilizzo il plasma per il trattamento di acqua che è stata successivamente impiegata per il lavaggio delle carote julienne. L'efficacia di entrambe le modalità di trattamento è stata verificata nei confronti sia della microflora naturalmente contaminante le carote, sia di alcuni microrganismi patogeni che possono essere associati a tale vegetale: Listeria monocytogenes, Salmonella Enteritidis ed Escherichia coli.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.
Resumo:
Il lavoro di tesi consiste nella caratterizzazione, nell’analisi a ritroso e di stabilità attuale di un fenomeno franoso avvenuto a Casola Valsenio, in provincia di Ravenna. La caratterizzazione è comprensiva di analisi geomorfologica dell’area, indagine sismo-stratigrafica e indagine geotecnica di laboratorio. Quindi è stato definito il meccanismo di rottura della frana e sono stati cartografati gli elementi morfologici costituenti l’area di frana. L’indagine geofisica si basa su tecniche ad onde di superficie e include misure tromografiche di rumore sismico ambientale e misure attive multicanale. Queste forniscono, rispettivamente, le curve H/V e gli spettri di velocità di fase e di gruppo, dalle quali è possibile ricavare informazioni di carattere stratigrafico. La caratterizzazione fisico meccanica del materiale pelitico marnoso, prelevato sul piano di scorrimento basale, include analisi granulometrica, determinazione dei limiti di consistenza e test di taglio anulare per ottenere il valore di angolo di attrito residuo. Le informazioni ottenute dalle indagini hanno consentito di definire il modello geologico tecnico del fenomeno, che viene rappresentato rispetto a quattro sezioni, tre relative alla situazione attuale e una relativa al versante prefrana. Sulla base di questi sono state condotte delle analisi a ritroso, che hanno consentito di ricavare le condizioni idrauliche del versante al momento della rottura, per differenti combinazioni di geometria del cuneo e diagramma di spinta dell’acqua. Grazie ai risultati ottenuti in modalità backward, sono state effettuate le analisi di stabilità della scarpata attuale, aventi lo scopo di determinare la distanza orizzontale tra scarpata e frattura di trazione che determinerebbe una situazione di instabilità. Infine sono state condotte analisi di sensitività rispetto ai parametri geometrici del cuneo, di resistenza del materiale e di riempimento idraulico della frattura dii trazione.
Resumo:
Questo documento di tesi si incentra principalmente sullo studio delle reti wireless mobili e dei relativi scenari di utilizzo. In particolare, come esse vengono applicate per il riconoscimento e la prevenzione di incidenti stradali. Vista l’importanza di questo problema a livello di sicurezza stradale, ho deciso di sviluppare un' applicazione per smartphone Android, in grado di riconoscere le attività di uso quotidiano dell’utente e associarle a dei comportamenti, come ad esempio quello di un ciclista, di un pedone o di un automobilista. Nel caso in cui, in uno scenario stradale i dispositivi si trovassero ad una distanza ravvicinata, possono comunicare tramite una connessione Wi-Fi Direct il loro ruolo e lanciare messaggi di pericolo per avvisare la loro presenza, in modo da prevenire collisioni stradali. La realtà in cui si vuole collocare questa applicazione è quella che viene chiamata Pedestrian Detection, già idea di General Motors, che la sta sviluppando sui futuri veicoli che metterà in produzione nei prossimi anni e che sicuramente integreranno funzionalità aggiuntive per la segnalazione di pericoli tramite smartphone e Wi-Fi Direct.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
L'utilizzo di percorsi non centralizzati per la comunicazione tra dispositivi mobili presenta notevoli vantaggi, tra i quali una maggiore sicurezza e segretezza e l'indipendenza da infrastrutture esterne (Internet). Gli studi e le implementazioni di questo tipo di funzionalità stanno emergendo recentemente di pari passo con i traguardi raggiunti nel campo della tecnologia mobile, ma si trovano ancora in uno stato sperimentale e poco fruibile in pratica. È stata sviluppata come proof of work un'applicazione che permette di diffondere messaggi tra dispositivi mobili senza connessione a internet, sfruttando un sistema di comunicazione (quasi) peer to peer. Viene descritta in generale l'architettura e il funzionamento dell'applicazione insieme a dei possibili casi d'uso. Inoltre vengono mostrati i metodi vagliati ed effettivamente utilizzati per implementare questo tipo di comunicazione, insieme ad altre caratteristiche secondarie (crittografia). Il risultato conseguito è a tutti gli effetti funzionante e viene ritenuto la soluzione migliore possibile tra tutte quelle trovate, ma presenta comunque diversi difetti. La conclusione raggiunta è che lo stato attuale dell'arte non permetta di raggiungere lo scopo prefissato in maniera ottimale, in quanto è necessario ricorrere a metodi poco funzionali a causa della mancanza di supporto alle tecnologie necessarie.
Resumo:
Questa tesi tratta un argomento che si è fatto sempre più interessante, soprattutto in questi ultimi anni, l'integrità firmware e hardware di un sistema. Oggigiorno milioni di persone fanno completamente affidamento al proprio sistema lasciando nelle loro mani moli di dati personali e non, molte delle quali si affidano ai moderni antivirus i quali, però, non sono in grado di rilevare e gestire attacchi che implicano l'alterazione dei firmware. Verranno mostrati diversi attacchi di questo tipo cercando di fare capire come la relativa sicurezza sia importante, inoltre saranno discussi diversi progetti reputati interessanti. Sulla base delle ricerche effettuate, poi, sarà mostrata la progettazione e l'implementazione di un software in grado di rilevare alterazioni hardware e firmware in un sistema.