193 resultados para Processi stazionari, serie storiche.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le Dye – Sensitized Solar Cells (DSSC) sono attualmente considerate tra le alternative più promettenti al fotovoltaico tradizionale. I ridotti costi di produzione e l’elevata versatilità di utilizzo rappresentano i punti di forza di questi dispositivi innovativi. Ad oggi la ricerca è concentrata prevalentemente sull’incremento delle prestazioni delle DSSC, ottenibile solamente attraverso un miglioramento delle funzioni dei singoli componenti e dell’interazione sinergica tra questi. Tra i componenti, ha recentemente assunto particolare interesse il blocking layer (BL), costituito generalmente da un film sottile di TiO2 depositato sulla superficie dell’anodo (FTO) e in grado di ottimizzare i fenomeni all’interfaccia FTO/TiO2/elettrolita. Nel corso di questo lavoro di tesi si è rivolta l’attenzione prevalentemente sulle caratteristiche del BLs (ad esempio proprietà morfologico – strutturali) cercando di mettere in correlazione il processo di deposizione con le caratteristiche finali del film ottenuto. A questo scopo è stato ottimizzato un processo di deposizione dei film via spin coating, a partire da soluzioni acquosa o alcolica di precursore (TiCl4). I film ottenuti sono stati confrontati con quelli depositati tramite un processo di dip coating riportato in letteratura. I BLs sono stati quindi caratterizzati tramite microscopia (SEM – AFM), spettrofotometria (UV.- Vis) e misure elettrochimiche (CV – EIS). I risultati ottenuti hanno messo in evidenza come i rivestimenti ottenuti da soluzione acquosa di precursore, indipendentemente dalla tecnica di deposizione utilizzata (spin coating o dip coating) diano origine a film disomogenei e scarsamente riproducibili, pertanto non idonei per l’applicazione nelle DSSC. Viceversa, i BLs ottenuti via spin coating dalla soluzione alcolica di TiCl4 sono risultati riproducibili, omogenei, e uniformemente distribuiti sulla superficie di FTO. Infine, l’analisi EIS ha in particolare evidenziato un effettivo aumento della resistenza al trasferimento di carica tra elettrodo FTO ed elettrolita in presenza di questi BLs, fenomeno generalmente associato ad un efficace blocking effect.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nonostante negli ultimi anni si sia verificato un generale abbassamento degli infortuni sul lavoro, si rileva che gli incidenti legati alle esplosioni sono rimasti pressoché stazionari. Questo indica la necessità, sia di una maggiore aderenza delle soluzioni di limitazione dei rischi adottate, alle direttive nazionali ed europee pur introdotte in campo legislativo, sia – soprattutto – di asseverare processi di valutazione dei rischi medesimi, caso per caso presentati dalle differenti realtà produttive. Nel lavoro qui presentato si è proceduto, quindi, dopo un'introduzione sulle dinamiche dei fenomeni fisico-chimici che portano all’esplosione, a proporre ed illustrare una metodologia di analisi ed adeguamento alle principali normative in materia di ATEX, ovvero alle Direttive europee di riferimento e alle norme tecniche CEI specialistiche mediante un approccio classico di analisi del rischio. Fine ultimo di tale metodologia sarà la definizione del livello di riduzione del rischio ottenuto grazie all’adeguamento alle predette Direttive. Preliminarmente viene definita una procedura di ottimizzazione per l’individuazione e classificazione le sorgenti di emissione, sia di gas e vapori, che di polveri. Analogo ragionamento viene, poi, condotto per le principali fonti d’innesco delle nubi. Utilizzando opportuni software nel continuo si definisce il livello di rischio pre-adeguamento, le aree di maggiore criticità (in cui procedere agli interventi di prevenzione e protezione, materiali e organizzativi) e il livello di rischio residuo post-adeguamento. La metodologia è stata applicata al caso reale di un impianto per la distillazione dell’etanolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.