511 resultados para Interfaccia, Risultati elettorali, Accessibile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Siria interna settentrionale rappresenta un’area di grande interesse dal punto di vista degli studi storico – archeologici. Da decenni, infatti, in questa zona si susseguono molteplici campagne di scavi archeologici e numerosi progetti di ricerca finalizzati alla ricostruzione ed alla caratterizzazione del paesaggio antico della Siria interna settentrionale. E’ proprio all’interno di tale contesto che si inquadra il presente lavoro di tesi, che vuol essere uno strumento di supporto interdisciplinare per le attività e le ricerche sotto differenti e molteplici punti di vista: ingegneristico, archeologico, geologico ed agrario. L’obiettivo principale di questo elaborato riguarda l’analisi e l’inquadramento del territorio della Siria interna settentrionale, attraverso l’impiego delle immagini satellitari e con il supporto dei dati presenti in letteratura, al fine di produrre una classificazione dell’area di interesse. Per permettere una migliore caratterizzazione del territorio, i risultati ottenuti sono inoltre valutati e comparati utilizzando differenti scale temporali e spaziali. Tali analisi hanno per loro natura un carattere multitemporale, con l’obiettivo di valutare le principali trasformazioni del territorio, analizzando in particolar modo il processo di urbanizzazione ed il differente utilizzo del suolo verificatisi negli ultimi 20 anni. Le analisi sono inoltre condotte su scale territoriali differenti, permettendo così di creare un database georeferenziato multiscala, che sia di supporto allo studio di questo territorio. Il lavoro ha comportato la messa a punto di procedure specifiche e l’applicazione di numerosi e diversi metodi propri del Telerilevamento ottico. A completamento delle elaborazioni di inquadramento del territorio della Siria interna settentrionale, è stato anche realizzato un layer relativo alla sismicità dell’area, che come noto presenta storicamente una forte attività sismica, con la organizzazione in ambiente GIS dei dati relativi ai principali sistemi di faglia presenti nell’area.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si occupa degli aspetti di usabilità nell'interazione degli utenti con le applicazioni, usando le tecniche di generazione automatica della Model-Driven Architecture. Viene prodotto un generatore di applicazioni model-driven, basato su un modello di progettazione Goal-Oriented, con risultati apprezzabili nel fornire all'utente un'interazione dinamica con l'applicazione prodotta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trent’anni or sono il concetto di ottimalità venne formulato in senso teorico da Lévy, ma solo un decennio dopo Lamping riesce a darne elegante implementazione algoritmica. Realizza un sistema di riduzione su grafi che si scoprirà poi avere interessanti analogie con la logica lineare presentata nello stesso periodo da Girard. Ma l’ottimalità è davvero ottimale? In altre parole, l’implementazione ottimale del λ calcolo realizzata attraverso i grafi di condivisione, è davvero la migliore strategia di riduzione, in termini di complessità? Dopo anni di infondati dubbi e di immeritato oblìo, alla conferenza LICS del 2007, Baillot, Coppola e Dal Lago, danno una prima risposta positiva, seppur parziale. Considerano infatti il caso particolare delle logiche affini elementare e leggera, che possiedono interessanti proprietà a livello di complessità intrinseca e semplificano l’arduo problema. La prima parte di questa tesi presenta, in sintesi, la teoria dell’ottimalità e la sua implementazione condivisa. La seconda parte affronta il tema della sua complessità, a cominciare da una panoramica dei più importanti risultati ad essa legati. La successiva introduzione alle logiche affini, e alle relative caratteristiche, costituisce la necessaria premessa ai due capitoli successivi, che presentano una dimostrazione alternativa ed originale degli ultimi risultati basati appunto su EAL e LAL. Nel primo dei due capitoli viene definito un sistema intermedio fra le reti di prova delle logiche e la riduzione dei grafi, nel secondo sono dimostrate correttezza ed ottimalità dell’implementazione condivisa per mezzo di una simulazione. Lungo la trattazione sono offerti alcuni spunti di riflessione sulla dinamica interna della β riduzione riduzione e sui suoi legami con le reti di prova della logica lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Pialassa Baiona è una laguna sottoposta a diversi vincoli normativi, visto il suo inquadramento tra le aree SIC e ZPS, e soggetta a diverse sorgenti di disturbo antropico, più intense negli anni ‘50-‘70. Questa tesi si propone lo scopo di valutare il rischio associato ai metalli bivalenti presenti nei sedimenti della Pialassa Baiona attraverso tre approcci: il primo riguarda la determinazione della frazione biodisponibile dei metalli presenti nei sedimenti attraverso la determinazione dei solfuri acidi volatili (AVS) e dei metalli simultaneamente estraibili (SEM), nonché la valutazione della potenziale tossicità dei sedimenti attraverso la valutazione del rapporto molare SEM/AVS, il secondo approccio considera invece il contenuto pseudo totale dei metalli bivalenti (Cd, Cu, Ni, Pb e Zn) e il loro confronto sia con i valori tipici di fondo naturale del Mar Adriatico che con i valori guida di riferimento internazionale (Threshold Effect Level, TEL e Probable Effect Level, PEL) al fine di valutare lo stato di qualità dei sedimenti della zona d’indagine. Il terzo approccio considera l’influenza del gradiente naturale terra-mare tipico delle zone di transizione e del gradiente antropico legato alla vicinanza dell’area industriale alla Pialassa Baiona, sulla distribuzione spaziale dei metalli oggetto di questo studio. I risultati ottenuti evidenziano che l’area più prossima alla zona industriale e al contempo più lontana dall’effetto del ricambio delle acque e di dilavamento ad opera del mare, è risultata quella con livelli significativamente più elevati per la maggior parte dei metalli analizzati. Questo permette di ipotizzare un’influenza diretta delle sorgenti di inquinanti, ma anche un effetto dispersivo della circolazione. Gli AVS hanno invece evidenziato un gradiente terra-mare; ciò comporta che nelle zone più prossime all’influenza del mare si sono riscontrate concentrazioni minori di AVS. La valutazione della potenziale tossicità dei metalli in termini di rapporto SEM/AVS non ha evidenziato la presenza di siti a rischio per il biota acquatico, se non per un unico sito prossimo all’area industriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo della medicina ha determinato un utilizzo sempre crescente di sostanze farmacologiche, le quali una volta escrete dagli organismi raggiungono le acque dei fiumi e dei laghi, per arrivare poi all’ambiente marino costiero, che ne risulta sempre maggiormente contaminato. Negli organismi non bersaglio esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione, oppure avere effetti inattesi se i bersagli molecolari sono conservati ma hanno una differente funzione. Questo lavoro di tesi è volto a studiare i potenziali effetti indotti dalla fluoxetina (FX, farmaco antidepressivo inibitore dell’uptake della serotonina), e dal propranololo (PROP, farmaco bloccante sia dei recettori β-adrenergici che serotoninergici nell’uomo) nei mitili Mytilus galloprovincialis, esposti a tali sostanze, valutandone l’interazione con i meccanismi di trasduzione del segnale AMPc-dipendente. Sono stati valutati in particolare i livelli di AMPc e l’attività dell’enzima PKA, inoltre si è studiato se i farmaci influiscano con i meccanismi di regolazione del gene ABCB1, che codifica per la P-glicoproteina (Pgp), che ha il compito di estrudere all’esterno della cellula gli xenobiotici che vi sono entrati. Gli studi sono stati condotti dopo esposizione dei mitili in vivo ai due farmaci ed alla loro miscela per 7 giorni in acquario. I risultati hanno indicato che la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e anche dell’espressione del gene ABCB1 rispetto al controllo, sia nel mantello che nella ghiandola digestiva. Nella ghiandola digestiva il PROP provoca una significativa riduzione dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto ai valori di controllo. Nel mantello, invece, il PROP aumenta i livelli di AMPc e l’espressione del gene ABCB1, anche se non ha effetti significativi sull’attività della PKA. Per caratterizzare i recettori per la serotonina (5HT), e il possibile ruolo di antagonista giocato dal PROP, abbiamo inoltre trattato in vitro emociti di mitilo con la 5HT l’agonista fisiologico del recettore, usata da sola ed in presenza del PROP. I dati ottenuti dimostrano che negli emociti di mitilo sono espressi recettori 5HT1 accoppiati a proteine G inibitrici, e che il PROP blocca l’effetto della 5HT, agendo come antagonista dei recettori 5HT1. Nell’insieme i dati dimostrano che i farmaci possono avere effetti sugli organismi acquatici anche a concentrazioni molto basse come quelle ambientali. I dati della tesi non dimostrano che PROP e FX hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti. Si è dimostrato per la prima volta che gli emociti di mitilo possiedono recettori di tipo 5HT1 correlati alla riduzione dei livelli intracellulari di AMPc, e soprattutto che il sistema AMPc/PKA è deputato alla regolazione dell’espressione dei geni ABCB1 codificanti per proteine del complesso Multi Xenobiotic Resistance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I RAEE (Rifiuti da Apparecchiature Elettriche ed Elettroniche) costituiscono un problema prioritario a livello europeo per quanto riguarda la loro raccolta, stoccaggio, trattamento, recupero e smaltimento, essenzialmente per i seguenti tre motivi: Il primo riguarda le sostanze pericolose contenute nei RAEE. Tali sostanze, nel caso non siano trattate in modo opportuno, possono provocare danni alla salute dell’uomo e all’ambiente. Il secondo è relativo alla vertiginosa crescita relativa al volume di RAEE prodotti annualmente. La crescita è dovuta alla continua e inesorabile commercializzazione di prodotti elettronici nuovi (è sufficiente pensare alle televisioni, ai cellulari, ai computer, …) e con caratteristiche performanti sempre migliori oltre all’accorciamento del ciclo di vita di queste apparecchiature elettriche ed elettroniche (che sempre più spesso vengono sostituiti non a causa del loro malfunzionamento, ma per il limitato livello di performance garantito). Il terzo (ed ultimo) motivo è legato all’ambito economico in quanto, un corretto trattamento dei RAEE, può portare al recupero di materie prime secondarie (alluminio, ferro, acciaio, plastiche, …) da utilizzare per la realizzazione di nuove apparecchiature. Queste materie prime secondarie possono anche essere vendute generando profitti considerevoli in ragione del valore di mercato di esse che risulta essere in costante crescita. Questo meccanismo ha portato a sviluppare un vasto quadro normativo che regolamenta tutto l’ambito dei RAEE dalla raccolta fino al recupero di materiali o al loro smaltimento in discarica. È importante inoltre sottolineare come lo smaltimento in discarica sia da considerarsi come una sorta di ‘ultima spiaggia’, in quanto è una pratica piuttosto inquinante. Per soddisfare le richieste della direttiva l’obiettivo dev’essere quello di commercializzare prodotti che garantiscano un minor impatto ambientale concentrandosi sul processo produttivo, sull’utilizzo di materiali ‘environmentally friendly’ e sulla gestione consona del fine vita. La Direttiva a livello europeo (emanata nel 2002) ha imposto ai Paesi la raccolta differenziata dei RAEE e ha definito anche un obiettivo di raccolta per tutti i suoi Stati Membri, ovvero 4 kg di RAEE raccolti annualmente da ogni abitante. Come riportato di seguito diversi paesi hanno raggiunto l’obiettivo sopra menzionato (l’Italia vi è riuscita nel 2010), ma esistono anche casi di paesi che devono necessariamente migliorare il proprio sistema di raccolta e gestione dei RAEE. Più precisamente in Italia la gestione dei RAEE è regolamentata dal Decreto Legislativo 151/2005 discusso approfonditamente in seguito ed entrato in funzione a partire dal 1° Gennaio 2008. Il sistema italiano è basato sulla ‘multi consortilità’, ovvero esistono diversi Sistemi Collettivi che sono responsabili della gestione dei RAEE per conto dei produttori che aderiscono ad essi. Un altro punto chiave è la responsabilità dei produttori, che si devono impegnare a realizzare prodotti durevoli e che possano essere recuperati o riciclati facilmente. I produttori sono coordinati dal Centro di Coordinamento RAEE (CDC RAEE) che applica e fa rispettare le regole in modo da rendere uniforme la gestione dei RAEE su tutto il territorio italiano. Il documento che segue sarà strutturato in quattro parti. La prima parte è relativa all’inquadramento normativo della tematica dei RAEE sia a livello europeo (con l’analisi della direttiva ROHS 2 sulle sostanze pericolose contenute nei RAEE e la Direttiva RAEE), sia a livello italiano (con un’ampia discussione sul Decreto Legislativo 151/2005 e Accordi di Programma realizzati fra i soggetti coinvolti). La seconda parte tratta invece il sistema di gestione dei RAEE descrivendo tutte le fasi principali come la raccolta, il trasporto e raggruppamento, il trattamento preliminare, lo smontaggio, il riciclaggio e il recupero, il ricondizionamento, il reimpiego e la riparazione. La terza definisce una panoramica delle principali metodologie di smaltimento dei 5 raggruppamenti di RAEE (R1, R2, R3, R4, R5). La quarta ed ultima parte riporta i risultati a livello italiano, europeo ed extra-europeo nella raccolta dei RAEE, avvalendosi dei report annuali redatti dai principali sistemi di gestione dei vari paesi considerati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di laurea ha un duplice scopo: da un lato l’analisi delle caratteristiche delle balle di paglia usate come materiale da costruzione, dall’altro la valutazione ambientale tramite metodologia LCA di un intervento di reinsediamento post-sisma a Pescomaggiore, in Abruzzo, realizzato con edifici in balle di paglia autocostruiti. Nella parte prima si focalizza l’attenzione sulle direttive europee e i loro recepimenti italiani a cui fare riferimento per le gestione energetica degli edifici, oltre ad una panoramica sulla certificazione energetica. Si riportano inoltre sinteticamente quelle parti della normativa edilizia che riguardano le costruzioni con materiali innovativi. La parte seconda è il frutto di una lunga fase di ricerca bibliografica, in cui si è cercato di fare chiarezza sulle caratteristiche della paglia: traspirabilità, isolamento termico, resistenza al fuoco e fonoassorbenza le parti su cui si è maggiormente rivolta l’attenzione. Nella parte terza viene descritta dettagliatamente la metodologia LCA, e in particolare la sua applicazione nel campo dell’edilizia: le diverse fasi in cui si compone, l’uso di software e di banche dati appropriate e i metodi più utilizzati per l’analisi degli impatti. Nella quarta ed ultima parte viene descritto dettagliatamente il caso di studio: una delle case di paglia dell’Ecovillaggio di Pescomaggiore; segue una descrizione accurata della fase di inventario, effettuata anche tramite un sopralluogo in sito. Infine vengono riportati e commentati i risultati dell’analisi, ed espresse considerazioni e proposte migliorative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente studio sono state eseguite analisi chimiche su sedimenti fluviali, prelevati in 233 siti rappresentativi, fra i corsi d'acqua che attraversano la pianura Padana. L'obbiettivo dello studio era di caratterizzare il sedimento e determinarne il suo stato di qualità. Parallelamente è stata effettuata, un'indagine sulle comunità di macroinvertebrati, fra alcuni degli affluenti di sinistra del Po e sul Po stesso. I sedimenti sono stati analizzati con uno spettrofotometro a fluorescenza a raggi x (XRF). I risultati ottenuti, durante le analisi e le elaborazioni cartografiche eseguite, vengono riportati e discussi in questo documento. Le analisi chimiche indicano che la composizione del sedimento è caratteristica secondo la sua provenienza ed è determinata dalla litologia dell'area che i fiumi attraversano. Sono state riscontrate particolari anomalie, delle concentrazioni di alcuni elementi potenzialmente tossici, a valle dei centri urbani. Lo studio delle comunità di macroinvertebrati concorda con i risultati ottenuti attraverso le analisi chimiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo urbano avvenuto negli ultimi 20 anni soprattutto nelle grandi città, ma anche in quelle più piccole, è stato definito con il termine americano “urban sprawl”. In linea del tutto generale, lo sprawl può essere definito come la tendenza delle aree urbane a svilupparsi in maniera dispersa e disorganizzata nelle campagne circostanti. I principali impatti del fenomeno riguardano il consumo e l’impermeabilizzazione del suolo oltre a forti impatti su tutte le altre matrici ambientali. Per una corretta pianificazione necessita di essere studiato e quantificato nelle sue differenti declinazioni. Nella presente tesi vengono riportati i risultati della analisi diacronica nel Comune di Carpi (Provincia di Modena) attraverso una sequenza temporale di mappe dell’uso/copertura del suolo (1954,1976,1997,2003,2008) appositamente redatte. Vengono, in particolare, analizzati gli aspetti legati allo sviluppo urbano (del comune e delle frazioni di sua competenza) al fine di evidenziare l’occorrenza di sprawl. Ciò è stato fatto attraverso l’analisi degli andamenti dell’area urbana e di quella agricola nel tempo, delle trasformazioni principali avvenute nel territorio (sia in termini qualitativi che quantitativi), dell’evoluzione della rete infrastrutturale e infine mediante il calcolo di indici propri dell’ecologia del paesaggio utilizzati in molti studi sullo sprawl urbano. Dai risultati di questa analisi emerge che il territorio in esame si è fortemente trasformato dal 1954 al 1976; in particolare l’urbanizzazione è avvenuta in un primo tempo a carico del centro principale di Carpi e in seguito (1976-2008) ha interessato maggiormente le frazioni secondarie e l’edificato discontinuo lungo le principali infrastrutture viarie. Questo aspetto è attribuibile al fenomeno dello sprawl in termini di sviluppo periurbano e di invasione delle campagne. Il calcolo degli indici ha evidenziato che l’area urbana totale è fortemente dispersa, sia rispetto al centro principale che considerata come totale, fin dal 1954 (alta entropia relativa di Shannon) e contemporaneamente il territorio agricolo si presenta frammentato (Patch Density e Mean Patch Size) e con un’eterogeneità ambientale abbastanza limitata; questi indici non mostrano però un andamento che indichi un aumento dello sprawl nella sequenza temporale. Ciò che gli indici rilevano è l’urbanizzazione veloce e compatta avvenuta tra il 1954 ed il 1976. Il presente studio rivela quindi l’inadeguatezza degli indici scelti ad evidenziare il fenomeno dello sprawl negli ultimi vent’anni nel territorio d’indagine a causa della bassa sensibilità a trasformazioni molto moderate ed a scale di dettaglio dell’area urbana molto piccole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le conoscenze relative al controllo ormonale del metabolismo epatico dei pesci sono ancora piuttosto limitate e per molti anni sono state controverse. Per lungo tempo si è ritenuto che le catecolamine, adrenalina e noradrenalina, agissero nel fegato dei pesci soltanto attraverso i recettori adrenergici di tipo β. Quindi l’assetto recettoriale dei mammiferi, che comprende recettori α e β, era considerato frutto di un processo evolutivo che non aveva ancora avuto luogo nei pesci. Successivamente, nel fegato di vari teleostei è stata dimostrata la presenza di recettori sia α che β. Tuttavia il ruolo fisiologico dei due tipi di recettori non è ancora chiaro. Per esempio, in acciughe e sgombri non è stato fatto alcuno studio sulla risposta alle catecolamine ottenuta attraverso i recettori α e β, nel fegato di trota i recettori α non sono accoppiati alla cascata fisiologica che porta al rilascio di glucosio, e in anguilla e pesce gatto l’azione delle catecolamine attraverso recettori β è predominante rispetto a quella attraverso recettori α. L’utilizzo di ligandi farmacologici non ha portato a chiarimenti significativi, perché la loro specificità per i recettori di mammifero non trova sempre riscontro nei pesci. In questo studio, quindi, abbiamo studiato l’espressione dei geni codificanti per i recettori α e β adrenergici attraverso la tecnica della PCR real time, ottenendo i primi dati in letteratura per quanto riguarda la loro quantificazione assoluta. L’organismo modello utilizzato è stata l’anguilla, teleosteo caratterizzato da un ciclo biologico molto particolare in cui si distinguono nettamente una fase gialla ed una argentina. Le anguille argentine non sono mai state studiate a tale proposito, e date le estreme differenze nella disponibilità e nell’uso delle risorse energetiche in questi due stadi di crescita, il presente studio ha mirato a valutare la differente sensibilità alle catecolamine da parte degli epatociti isolati da anguille gialle ed argentine. I nostri dati hanno confermato quanto solo ipotizzato nei vari studi pubblicati negli ultimi due decenni, ma mai avvalorato da risultati sperimentali, cioè che i recettori α e β sono contemporaneamente espressi negli epatociti dell’anguilla, sia gialla che argentina, e la proporzione tra loro giustifica il ruolo significativamente maggiore giocato dai recettori β. Nelle anguille argentine infatti, come nelle gialle, l’effetto dell’adrenalina sul rilascio di glucosio ottenuto attraverso recettori β è chiaramente predominante. Inoltre, i nostri dati indicano che in due diverse fasi del ciclo vitale dell’anguilla, così come si osserva nell’ontogenesi dei mammiferi, i recettori adrenergici sono espressi in quantità differente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi intende approfondire gli aspetti relativi alla valorizzazione della frazione organica da rifiuti solidi urbani (FORSU) per la produzione di biogas mediante fermentazione anaerobica. In particolare sono stati studiati pretrattamenti di tipo enzimatico al fine di agevolare la fase di idrolisi della sostanza organica che costituisce uno degli stadi limitanti la resa del processo di produzione di biogas. A tal fine sono stati caratterizzati e selezionati alcuni preparati enzimatici commerciali indicati per il trattamento di matrici ligno-cellulosiche per le loro attività carboidrasiche come quella amilasica, xilanasica e pectinasica. Gli esperimenti hanno comportato la necessità di fare un’approfondita analisi merceologica della FORSU al fine di poter sviluppare un sistema modello da utilizzare per le prove di laboratorio. L’azione enzimatica è stata verificata sulla FORSU modello sottoposta a vari pre-trattamenti termici e meccanici in cui l’azione idrolitica è stata maggiormente osservata per quelle frazioni tipicamente di origine amidacea. I risultati di laboratorio sono stati poi utilizzati per valutare un’estrapolazione industriale del pre-trattamento su un impianto che tratta FORSU per produrre biogas attraverso un processo di fermentazione industriale dry in biocella.