737 resultados para Analisi di vulnerabilità sismica strutture esistenti
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
Analisi di tutte le attività atte a incentivare la sostenibilità ambientale nel contesto del festival musicale "Time in Jazz"
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Il documento di tesi è composto da tre capitoli, che in successione analizzano gli aspetti teorici del progetto fino ad arrivare all’implementazione vera e propria dell’applicazione. Nel primo capitolo vediamo definito il tema dell’accessibilità accennando alle normative presenti in Italia e all’estero sull’argomento. Successivamente viene spiegato il concetto di Smart City e le tecniche che vengono utilizzate allo scopo di migliorare la qualità di vita nelle città. Vengono introdotti i concetti di crowdsourcing e participatory sensing, ideologie alla base delle Smart City. Al termine del capitolo viene introdotto uno studio sul grado di accessibilità degli smartphone presenti oggi sul mercato, analizzando anche le tecnologie assistive disponibili per questi dispositivi. Nel secondo capitolo si descrivono le tecnologie e i servizi utilizzati durante la creazione del progetto. In particolare viene presentato Android ed il suo funzionamento, essendo quest’ultimo il sistema operativo per cui è stata sviluppata l’applicazione. In seguito troviamo una breve analisi di tutti i servizi impiegati nel progetto: Foursquare, Fusion Table e Google Maps. Infine vengono descritte le tecnologie intermedie utilizzate per far comunicare fra loro gli strumenti spiegati in precedenza. Nel terzo capitolo viene presentata in modo dettagliato l’implementazione del progetto. Inizialmente vengono definite le classi principali create per progettare le funzionalità di base del software e per interagire con i servizi scelti. Successivamente viene descritto il funzionamento e l’aspetto dell’applicazione sviluppata insieme a degli screenshot, che permetteranno al lettore di avere un riferimento visivo di ciò che è stato esposto nel corso della tesi.
Resumo:
Questo lavoro confronta i comportamenti catalitici di alcuni catalizzatori acidi per l'idrolisi diretta di lignocellulosa e cellulosa. I catalizzatori utilizzati sono Zr/P/O e Nb/P/O. Le analisi di reattività di questi sistemi catalitici per l'idrolisi di lignocellulosa e cellulosa, mostrano diversi comportamenti in termini di selettività in monosaccaridi e prodotti di degradazione. Tali differenze sono dovute alle diverse proprietà acide dei sistemi catalitici. Il sistema Zr/P/O presenta un'elevata affinità per i β-1,4-glucani, come dimostrato dall'attività nell'idrolisi della cellulosa a formare glucosio; al contrario, il sistema Nb/P/O presenta un'elevata attività nella formazione di prodotti di degradazione e sottoprodotti. Infine è stato effettuato uno studio preliminare del sistema Zr/P/O sull'idrolisi diretta di biomasse lignocellulosiche derivanti da scarti agricoli.
Resumo:
Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
La tesi analizza e approfondisce vari concetti tra cui l'e-commerce e il suo impatto nel mercato degli ultimi decenni, le fasi progettuali di un sito web, i linguaggi principali sullo sviluppo web, la piattaforma Magento e le sue funzionalità. Dopo lo studio e l'analisi di tali concetti si è passato alla fase di realizzazione del sito web applicando le conoscenze e gli strumenti base della programmazione web come i linguaggi PHP, HTML5, CSS3 e JavaScript.
Resumo:
Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.
Resumo:
L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.
Resumo:
Il cloud permette di condividere in maniera veloce ed intuitiva non solo le informazioni, ma anche dati e programmi aumentando notevolmente le capacità di collaborazione di tutti, partendo da chi lo utilizza a livello personale per arrivare a chi lo utilizza a livello professionale. È possibile creare le proprie applicazioni aziendali e farle comunicare remotamente con le soluzioni cloud presenti sul mercato, attraverso gli strumenti messi a disposizione dai fornitori. Le applicazioni stesse potranno essere pubblicate su server anch’essi cloud, gestiti interamente da aziende esterne, che permettono una forma di pagamento in base all’effettivo utilizzo e libera dalle implicazioni della gestione di un server. In questo scenario verrà svolta una ricerca sulle caratteristiche di alcuni servizi cloud esistenti, in particolare riguardo ai software di gestione dei documenti, e verrà creata un’applicazione che comunica con essi sfruttandone le potenzialità.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.