708 resultados para Scorrimenti traslativi, Marnoso Arenacea, analisi a ritroso, analisi di stabilità


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'intento della tesi è realizzare un'unità didattica rivolta ad una classe di terza media, incentrata sullo studio della simmetria, partendo dall'osservazione delle arti decorative, nella fattispecie dei fregi, fino ad approdare all'analisi di particolari composizioni musicali. Nel primo capitolo ci proponiamo di classificare i \textit{gruppi dei fregi}, ovvero i sottogruppi discreti dell'insieme delle isometrie del piano euclideo in cui le traslazioni formano un sottogruppo ciclico infinito. Nel secondo capitolo trasferiremo i concetti introdotti nel primo capitolo dal piano euclideo a quello musicale. Nel terzo capitolo troveremo la descrizione della proposta didattica costruita sulla base dei contenuti raccolti nei primi due capitoli. Tale laboratorio è stato ideato nel tentativo di assolvere un triplice compito: fornire uno strumento in più per lo studio matematico delle isometrie e delle simmetrie, mostrare in che modo un processo fisico come la musica può essere rappresentato sul piano cartesiano come funzione del tempo, offrendo un primo assaggio di ciò che molti ragazzi dovranno affrontare nel prosieguo dei loro studi e infine introdurre lo studente ad un approccio più critico e ``scientifico'' all’arte in generale, e in particolare alla musica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa trattazione verterà sull'analisi di un sistema di gioco tra due individui, tra loro interagenti mediante handeld device, in un contesto immersivo posto in un luogo chiuso di natura museale. L'intera struttura, sviluppata nell'ambito del Corso di Sistemi ed Applicazioni Multimediali nell'anno 2010-2011, vuole porre un'innovazione rispetto agli scenari esistenti: laddove un'interazione museale richieda spesso la staticità dell'utilizzatore del servizio, il mezzo del gioco richiede invece la manipolazione e il movimento all'interno del luogo, garantendo un coinvolgimento maggiormente accentuato rispetto alla normale fruizione dei contenuti. Inoltre, la scelta alla base della realizzazione realizzazione si affida allo strumento multimediale e sempre più diffuso costituito dalle tecniche di Realtà Aumentata, che appongono aggiunte digitali all'ambiente circostante e permettono di modellare strutture d'informazione e manipolazione percepibili solo tramite apposite interfacce, ma pienamente inserite in un tessuto reale. La componente innovativa in questo schema è però portata da un'ulteriore aspetto, quello della cooper- azione di due dispositivi in contemporanea attori dell'interazione che, attraverso l'azione sulle informazioni esistenti, consentono di produrre modifiche rilevabili da ciascuno dei coinvolti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il documento in questione si pone l'obiettivo di descrivere un esempio di scenario di integrazione tra Alfresco ( ECM open source ) e SugarCRM. Vengono analizzati i vantaggi di una gestione documentale digitale e viene fatta una piccola analisi di mercato per la scelta dei prodotti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha affrontato le problematiche legate alla speciazione del cromo in particolare i rischi legati alla forma esavalente che risulta particolarmente tossica per gli organismi acquatici. Sono state svolte diverse prove per la messa appunto di una metodica standar dell’US EPA “Method 3060A” indicata per l’estrazione selettiva del Cr(VI) in campioni di sedimento e suolo. Un set di campioni provenienti da sedimenti della laguna costiera della Pialassa della Baiona sono stati analizzati per quantificare i livelli cromo environmentally available, previa dissoluzione in acqua regia, e livelli di cromo esavalente per valutare l’eventuale rischio per il biota acquatico. Sia i livelli di concentrazione di cromo environmentally available confrontati con le linee guida internazionali che i livelli di cromo e Cr(VI) paragonati ai livelli di effetto ritrovati in letteratura non mostrano un potenziale rischio per gli organismi bentonici. I bassi valori di cromo esavalente sono in accordo con le condizioni riducenti tipiche di ambienti di transizione come quello di studio dove la forma chimica del cromo predominante sembra essere quella trivalente. La metodica seguita per la determinazione del cromo esavalente ha diversi limiti rappresentati dall’azione di interferenti quali AVS, Fe(II) e materia organica naturalmente presenti nei sedimenti, per questo procede ancora la ricerca di analisi di speciazione più selettive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro presenta una analisi di sensitività sui parametri progettuali più significativi per i sistemi di ancoraggio di dispositivi di produzione di energia del mare di tipo galleggiante, comunemente conosciuti come Floating Wave Energy Converters (F-WEC). I convertitori di questo tipo sono installati offshore e possono basarsi su diversi principi di funzionamento per la produzione di energia: lo sfruttamento del moto oscillatorio dell’onda (chiamati Wave Active Bodies, gran parte di convertitori appartengono la tecnologia di questo tipo), la tracimazione delle onde (Overtopping Devices), o il principio della colonna d’acqua oscillante (Oscillating Water Columns). La scelta del luogo di installazione dei tali dispositivi implica una adeguata progettazione del sistema di ancoraggio che ha lo scopo di mantenere il dispositivo in un intorno sufficientemente piccolo del punto dove è stato originariamente collocato. Allo stesso tempo, dovrebbero considerarsi come elemento integrato del sistema da progettare al fine di aumentare l’efficienza d’estrazione della potenza d’onda. Le problematiche principali relativi ai sistemi di ancoraggio sono: la resistenza del sistema (affidabilità, fatica) e l’economicità. Le due problematiche sono legate tra di loro in quanto dall’aumento del resistenza dipende l’aumento della complessità del sistema di ancoraggio (aumentano il numero delle linee, si utilizzano diametri maggiori, aumenta il peso per unità di lunghezza per ogni linea, ecc.). E’ però chiaro che sistemi più affidabili consentirebbero di abbassare i costi di produzione e renderebbero certamente più competitiva l’energia da onda sul mercato energetico. I dispositivi individuali richiedono approcci progettuali diversi e l’economia di un sistema di ormeggio è strettamente legata al design del dispositivo stesso. Esistono, ad oggi, una serie di installazioni a scala quasi di prototipo di sistemi WEC che hanno fallito a causa del collasso per proprio sistema di ancoraggio, attirando così l’attenzione sul problema di una progettazione efficiente, affidabile e sicura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesi riprende il metodo di laoro imparato all'istituto La Cambre di Bruxelles: nell'Atelier scelto, ogni studente aveva effettuato l'analisi di un'area partendo da un tema dato. Da questa erano stati individuati i punti di forza e di debolezza, ai quali era stata data una risposta progettuale. Il lavoro di Tesi riprende questa impostazione: ad una prima parte di analisi del tema scelto, ossia della costruzione dell'architettura a partire da viste prospettiche, è stato analizzata l'area studio - la città di Cesena - individuando quelli che Lynch chiama "immagini deboli della città". Di queste, ne è stata scelta una alla quale è stata data una risposta progettuale: una torre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il territorio di Ferrara è caratterizzata da un’area ad elevata concentrazione di stabilimenti a rischio di incidente rilevante e dalla movimentazione di ingenti quantitativi di sostanze pericolose sulla rete stradale, ferroviaria ed in condotta. Basti pensare che nel solo Comune di Ferrara sono ben 5 le aziende che, per tipologia e quantità di sostanze presenti, rientrano nel campo di applicazione del D.Lgs. 334/99 (“Attuazione delle direttiva 96/82/CE relativa al controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose”). Per questo motivo, il 24 febbraio 2012 è stato sottoscritto a Ferrara il protocollo d’intesa per l’avvio dello Studio di Sicurezza Integrato d’Area (SSIA) del polo chimico ferrarese da parte della Regione Emilia Romagna, dell’Agenzia Regionale di Protezione Civile, del Comune e della Provincia di Ferrara, dell’Ufficio Territoriale del Governo, della Direzione Regionale dei Vigili del Fuoco, dell’Agenzia Regionale Prevenzione e Ambiente e delle stesse aziende del polo chimico. L’Università di Bologna, tramite il Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali presso il quale è stato svolto il presente lavoro di tesi, prende parte al Consiglio Scientifico ed al Comitato Tecnico del SSIA, aventi funzioni di direzione e di gestione operativa della ricerca. Il progetto è modellato sulla precedente esperienza realizzata in regione per il polo industriale di Ravenna (progetto ARIPAR), la cui validità è stata ampiamente riconosciuta a livello nazionale ed internazionale. L’idea alla base dello studio deriva dal fatto che per avere un quadro della situazione in un’area così complessa, è necessario non solo valutare l’insieme dei rischi presenti, ma anche le loro correlazioni e le conseguenze sul territorio di riferimento. In un’analisi di rischio d’area risulta di primaria importanza l’analisi della vulnerabilità del territorio circostante il sito industriale, in quanto scenari attesi di danno di pari severità assumono una differente valenza in relazione all’effettiva presenza di bersagli nell’area di interesse. Per tale motivo il presente lavoro di tesi ha avuto l’obiettivo di istruire il censimento della vulnerabilità del territorio di Ferrara, con riferimento ai bersagli “uomo”, “ambiente” e “beni materiali”. In primo luogo si è provveduto, sulla base delle distanze di danno degli scenari incidentali attesi, a definire l’estensione dell’area in cui effettuare il censimento. Successivamente si è approfondito il censimento della vulnerabilità del bersaglio “uomo”, prendendo in considerazione sia la popolazione residente, sia i centri di vulnerabilità localizzati all’interno dell’area potenzialmente interessata da incidenti rilevanti. I centri di vulnerabilità non sono altro che luoghi ad elevata densità di persone (ad esempio scuole, ospedali, uffici pubblici, centri commerciali), spesso caratterizzati da una maggiore difficoltà di evacuazione, sia per l’elevato numero di persone presenti sia per la ridotta mobilità delle stesse. Nello specifico si è proceduto alla creazione di un database (grazie all’utilizzo del software ArcView GIS 3.2) di tutti i centri di vulnerabilità presenti, ai quali è stato possibile associare una precisa localizzazione territoriale ed altri dati di carattere informativo. In una fase successiva dello SSIA sarà possibile associare ai centri di vulnerabilità le relative categorie di popolazione, indicando per ciascuna il numero dei presenti. I dati inseriti nel database sono stati forniti in massima parte dal Comune di Ferrara e, in misura più limitata, dall’Agenzia Regionale di Protezione Civile e dalla Camera di Commercio. Presentando spesso tali dati un’aggregazione diversa da quella necessaria ai fini dello SSIA, è stato necessario un intenso lavoro di analisi, di depurazione e di riaggregazione allo scopo di renderli disponibili in una forma fruibile per lo SSIA stesso. Da ultimo si è effettuata una valutazione preliminare della vulnerabilità dei bersagli “ambiente” e “beni materiali”. Per quanto riguarda l’ambiente, si sono messe in luce le aree sottoposte a vincoli di tutela naturalistica e quindi particolarmente vulnerabili in caso di un rilascio accidentale di sostanze pericolose. Per il bersaglio “beni materiali”, non essendo stato possibile reperire dati, si è sono evidenziate le categorie di beni da censire. In conclusione, è possibile affermare che lo studio effettuato in questo lavoro di tesi, ha consentito non solo di conseguire l’obiettivo inizialmente stabilito – l’istruzione del censimento della vulnerabilità del territorio di Ferrara - ma ha contribuito anche alla definizione di una metodologia per il censimento di aree vaste che potrà essere utilmente applicata ad altre zone del territorio nazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione e analisi di una nuova proprietà del Dna: l'induzione di segnali elettromagnetici a bassa frequenza da parte di Dna in soluzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo testo si pone come obbiettivo l'analisi di fattibilità tecnica e l'introduzione all'implementazione di sistemi che permettano il riutilizzo di codice sorgente di applicazioni con necessità simili su dispositivi Smartphone. In particolare su sistemi Google Android. Questo è il concetto di personalizzazione di applicazioni, in pratica la costruzione di sistemi che permettano di generare applicazioni mobile attraverso interfacce user-friendly e mediante l'uso di codice modulare. L'obbiettivo è fornire una visione globale delle soluzioni e delle problematiche di questo campo, poste come linee guida per chi intendesse studiare questo contesto o dovesse sviluppare un progetto, anche complesso, inerente alla personalizzazione di applicazioni. Sarà implementato come esempio, un web service per la personalizzazione di applicazioni Android, in particolare webview, soffermandosi in particolare sulle problematiche legate alla paternità del software e delle firme digitali necessarie per la pubblicazione sul market Android. Saranno definite alcune scelte da prendere se si sviluppano applicazioni per terzi che in seguito saranno rilasciate sul market. Nella ultima parte sarà analizzata una strategia di customizzazione attraverso alcune buone pratiche, che permette attraverso l'uso di progetti libreria e direttamente nell'ambiente di sviluppo, di realizzare codice modulare e pronto per il market Android in diverse versioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio è stato effettuato nell’ambito del progetto Theseus; il mio lavoro mirava a valutare la risposta dei popolamenti meio e macrobentonici alla presenza di diverse tipologie di strutture di difesa costiera. Sono stati presi in esame a tal fine oltre al sito di campionamento di Cesenatico sud, con presenza di barriere emerse anche il sito di Cesenatico nord, con presenza di barriere semisommerse, per poter effettuare un confronto. Il campionamento è stato fatto nella zona intertidale dove sono stati prese oltre alle variabili biotiche di macro e meiofauna anche quelle abiotiche (granulometria e sostanza organica). Sono stati scelti sei transetti in maniera random, 3 livelli di marea fissi l’alta, la media e la bassa (H, M, L) e due repliche (A e B) per un totale di 36 campioni per ogni variabile presa in esame. Dopo la fase di trattamento dei campioni in laboratorio state fatte in seguito analisi univariate effettuando l’ANOVA sia sui dati biotici di abbondanza numero di taxa e indice di diversità di Shannon di macro e meiobenthos sia sulle singole variabili ambientali di TOM, mediana, classazione, shell mean (capulerio). Sono state fatte anche analisi multivariate; per quanto riguarda i dati biotici sono state effettuate analisi di MDS e PERMANOVA e per quanto riguarda le variabili dei dati abiotici è stata fatta l’analisi della PCA. Infine per effettuare un confronto tra le variabili ambientali e quelle biotiche è stata fatta anche l’analisi BIOENV. Dai risultati sono emerse delle differenze sostanziali tra i due siti con maggiore abbondanza e diversità nel sito di Cesenatico nord rispetto a quello sud. Sono state evidenziate anche differenze nei livelli di marea con una maggiore abbondanza nel livello di bassa marea rispetto alla media e all’alta soprattutto per quanto riguarda il sito di Cesenatico sud. Dal confronto tra i dati ambientali e quelli biotici ne è risultato che la variabile più strettamente correlata è quella del capulerio sia per quanto riguarda il pattern di distribuzione della macrofauna che della meio. Tale lavoro ha messo in evidenza come i popolamenti rispondano in maniera differente alla presenza di differenti barriere di difesa costiera che anche se simili nella loro struttura presentano dei differenti effetti che hanno sull’azione del moto ondoso, circolazione dell’acqua e trasporto di sedimenti portando così a differenti risposte nei patterns di distribuzione dei popolamenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.