990 resultados para Lunghezza della cerniera plastica, pushover, rotazione ultima, colonne in c.a.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante il secolo scorso sono state individuate alcune mutazioni per il colore della buccia della varietà William che invece di essere giallo arriva a maturazione con diverse tonalità di colore rosso. L’intensità e la tipologia del fenotipo dovuto a questa mutazione mostra una variabilità all’interno dei diversi cloni rossi di questa cultivar: Max Red Bartlett, Rosired e Sensation. Questa mutazione è ereditabile e usando come genitore uno dei sopra-citati mutanti per il rosso sono state prodotte altre cultivar caratterizzate da buccia rossa come Cascade. Max Red Bartlett presenta una intensa colorazione rossa nelle prime fasi di maturazione per poi striarsi perdendo di lucentezza e non ricoprendo totalmente la superficie del frutto. Max Red Bartlett ha inoltre il problema di regressione del colore. Questa mutazione infatti non è stabile e dopo qualche anno può regredire e presentare il fenotipo di William. Diverso è invece lo sviluppo per esempio di Rosired che durante le prime fasi di accrescimento del frutto è identica a Williams (di colore verde con la parte del frutto rivolta verso il sole leggermente rossastra) per poi virare e mantenere un vivo colore rosso su tutta la superficie del frutto. Questa tesi si è proposta di caratterizzare questa mutazione che coinvolge in qualche modo la via biosintetica per la sintesi del colore. In particolare si è cercato di investigare sui probabili geni della via degli antociani coinvolti e in quale modo vengono espressi durante la maturazione del frutto, inoltre si è cercato di trovare quali specifiche molecole venissero diversamente sintetizzate. Le cultivar utilizzate sono state William e Max Red Bartlett. Di quest’ultima era già disponibile una mappa molecolare, ottenuta sulla popolazione di’incrocio di Abate Fetel (gialla) x MRB (rossa) con AFLP e SSR, quest’ultimi hanno permesso di denominare i diversi linkage group grazie alla sintenia con le altre mappe di pero e di melo. I semenzali appartenenti a questa popolazione, oltre a dimostrare l’ereditarietà del carattere, erano per il 50% gialli e 50% rossi. Questo ha permesso il mappaggio di questo carattere/mutazione che si è posizionato nel linkage group 4. Una ricerca in banca dati eseguita in parallelo ha permesso di trovare sequenze di melo dei geni coinvolti nella via biosintetica degli antociani (CHS, CHI, F3H, DFR, ANS e UFGT), sulle quali è stato possibile disegnare primer degenerati che amplificassero su DNA genomico di pero. Le amplificazioni hanno dato frammenti di lunghezza diversa. Infatti nel caso di F3H e DFR l’altissima omologia tra melo e pero ha permesso l’amplificazione quasi totale del gene, negli altri casi invece è stato necessario utilizzare primer sempre più vicini in modo da facilitare l’amplificazione. I frammenti ottenuti sono stati clonati sequenziati per confermare la specificità degli amplificati. Non sono stati evidenziati polimorfismi di sequenza in nessuna delle sei sequenze tra William e Max Red Bartlett e nessun polimorfismo con Abate, per questo motivo non è stato possibile mapparli e vedere se qualcuno di questi geni era localizzato nella medesima posizione in cui era stato mappato il “colore/mutazione”. Sulle le sequenze ottenute è stato possibile disegnare altri primer, questa volta specifici, sia per analisi d’espressione. Inizialmente è stato sintetizzato il cDNA dei geni suddetti per retrotrascrizione da RNA estratto sia da bucce sia da foglie appena germogliate (le quali presentano solo in questa fase una colorazione rossastra in MRB ma non in William). Al fine di osservare come varia l’espressione dei geni della via biosintetica delle antocianine durante la fase di maturazione dei frutti, sono stati fatti 4 campionamenti, il primo a 45gg dalla piena fioritura, poi a 60, 90, 120 giorni. Foglie e bucce sono state prelevate in campo e poste immediatamente in azoto liquido. Dai risultati con Real Time è emerso che vi è una maggiore espressione nelle prime fasi di sviluppo in Max Red Bartlett per poi calare enormemente in giugno. Si potrebbe ipotizzare che ci sia una reazione di feed back da parte della piante considerando che in questa fase il frutto non si accresce. I livelli di espressione poi aumentano verso la fase finale della maturazione del frutto. In agosto, con l’ultimo campionamento vi è una espressione assai maggiore in Max Red Bartlett per quei geni posti a valle della via biosintetica per la sintesi delle antocianine. Questo risultato è confermato anche dal livello di espressione che si riscontra nelle foglie. In cui i geni F3H, LDOX e UFGT hanno un livello di espressione nettamente maggiore in Max Red Bartlett rispetto a William. Recentemente Takos et al (2006) hanno pubblicato uno studio su un gene regolatore della famiglia Myb e ciò ha permesso di ampliare i nostri studi anche su questo gene. L’altissima omologia di sequenza, anche a livello di introni, non ha permesso di individuare polimorfismi tra le varietà Abate Fetel e Max Red Bartlett, per nessun gene ad eccezione proprio del gene regolatore Myb. I risultati ottenuti in questa tesi dimostrano che in pero l’espressione relativa del gene Myb codificante per una proteina regolatrice mostra una netta sovra-espressione nel primo stadio di maturazione del frutto, in Max Red Bartlett 25 volte maggiore che in William. All’interno della sequenza del gene un polimorfismo prodotto da un microsatellite ha permesso il mappaggio del gene nel linkage group 9 in Max Red Bartlett e in Abate Fetel. Confrontando questo dato di mappa con quello del carattere morfologico rosso, mappato nel linkage group 4, si deduce che la mutazione non agisce direttamente sulla sequenza di questo gene regolatore, benché sia espresso maggiormente in Max Red Bartlett rispetto a William ma agisca in un altro modo ancora da scoprire. Infine per entrambe le varietà (William e Max Red Bartlett) sono state effettuate analisi fenotipiche in diversi step. Innanzi tutto si è proceduto con una analisi preliminare in HPLC per osservare se vi fossero differenze nella produzione di composti con assorbenza specifica delle antocianine e dei flavonoidi in generale. Si è potuto quindi osservare la presenza di due picchi in Max Red Bartlett ma non in William. La mancanza di standard che coincidessero con i picchi rilevati dallo spettro non ha permesso in questa fase di fare alcuna ipotesi riguardo alla loro natura. Partendo da questo risultato l’investigazione è proceduta attraverso analisi di spettrometria di massa associate ad una cromatografia liquida identificando con una certa precisione due composti: la cianidina-3-0-glucoside e la quercitina-3-o-glucoside. In particolare la cianidina sembra essere la molecola responsabile della colorazione della buccia nei frutti di pero. Successive analisi sono state fatte sempre con lo spettrometro di massa ma collegato ad un gas cromatografo per verificare se vi fossero delle differenze anche nella produzione di zuccheri e più in generale di molecole volatili. L’assenza di variazioni significative ha dimostrato che la mutazione coinvolge solo il colore della buccia e non le caratteristiche gustative e organolettiche di William che restano inalterate nel mutante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto. Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura. Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<> di Boito deve essere inequivocabilmente opera nuova, come prodotto figurativo e materiale autonomo, chiara ed inequivocabile espressione <<della nostra cultura e del nostro tempo>>”. Ne deriva riassumendo che oggi l’obbiettivo deve essere quello di conservare da un lato senza non sotrarre altra materia alla fabbrica e di valorizzare, ossia aggiungere, nuove “presenze” di cultura contemporanea. Per questo si parlerà di progetto di restauro e rifunzionalizzazione. La fabbrica ha subito nel corso dell’ultimo decennio una serie di “rovinose” manomissioni, che a differenza di quelle operate in tempi più antichi (coincidenti con esigenze funzionali corrispondenti alla logica dell’adattare) appaiano ben più gravi, e contribuiscono a peggiorare la lettura del fabbricato. Il Veneto e soprattutto la zona intorno a Bassano del Grappa presenta una infinità di dimore padronali casini di caccia, resti di antiche residenze (colombare, oratori, ecc.) risalenti al periodo di maggior fioritura della residenza di “Villa” della Serenissima. Nel caso specifico di studio , quindi della rifunzionalizzazione dell’edificio, la domanda sorge spontanea; Come ristabilire un senso a questi spazi? E nell’ipotesi di poter realmente intervenire che cosa farne di questi oggetti?. E ultimo ma non ultimo in che modo poter ristabilire un “dialogo” con l’edificio in una lettura corretta del suo significato non solo per quel che riguarda la materia ma anche per ciò che ci trasmette nel “viverlo”, nell’usufruirne nel fatto stesso di poterlo vedere, passandoci davanti. tà. Lidea si forma prima ancora da un esigenza del territorio, il comune di Cassola dove ha sede la Villa,pur avendo un discreto numero di abitanti e collocandosi in posizione nevralgica in quanto molto vicino al centro diBasssano (ne è quasi la promulgazione), non possiede uno spazio espositivo /rappresentativo, un edificio a carattere pubblico, sede di “eventi” culturali locali e non. Villa Capello –Mora, potrebbe rispondere bene a questo tipo di utilizzo. Si è deciso di pensare ad un luogo a carattere espositivo che possa funzionare durante tutto l’anno e nei periodi etsivi includa anche il giardino esterno. Il progetto muove da due principi il principio di “reversibilità” e quello del “minimo intervento” sottolinenando volutamente che siano gli ogetti esposti e lo spazio dei locali a fare da protagonisti, Punti chiave nell’interpretazione degli spazi sono stati i percorsi, la “narrazione” degli oggetti esposti avviene per momenti e viene rimarcata nell’allestimento tramite i materiali i colori e le superfici espositive, perché nel momento in cui visito una mostra o un museo, è come se stessi vivendo la narrazione di un qualcosa, oggetto semplice od opera complessa che sia inteso nell’ambito museale-espositivo esso assume una capacità di trasmissione maggiore rispetto a qundo lo stesso ogetto si trova in un contesto differente, la luce e la sua disposizione nello spazio, fanno sì che il racconto sia narrato, bene o male, ancora più importante è lo sfondo su cui si staglia l’opera, che può essere chiuso, come una serie di scatole dentro la scatola (edificio) oppure aperto, con singole e indipendenti pannellature dove l’edificio riveste il carattere proprio di sfondo. Scelta la seconda delle due ipotesi, si è voluto rimarcare nella composizione degli interni i momenti della narrazione, così ad esempio accedendo dall’ingresso secondario (lato nord-ovest) al quale si è dato l’ingresso alla mostra, -superata la prima Hall- si viene, catapultati in uno spazio porticato in origine aperto e che prevediamo chiuso da una vetrata continua, portata a debita distanza dal colonnato. Questo spazio diventa la prima pagina del testo, una prima pagina bianca, uno spazio libero, di esposizione e non di relax e di presentazione dell’evento, uno spazio distributivo non votato solo a questo scopo, ma passibile di trasformazione. A rimarcare il percorso una pavimentazione in cemento lisciato, che invita l’accesso alle due sale espositive a sinista e a destra dell’edificio. Nell’ala a sinistra (rispetto al nord) si apre la stanza con camino seicentesco forse un tempo ad uso cucina? Sala che ospita dei pannelli a sospesi a muro e delle teche espositive appese a soffitto. L’ala di destra, diametralmente opposta, l’unica che al piano terra mantiene la pavimentazione originale, stabiliva il vero atrio d’entrata, nel XVII sec. riconoscibile da quattro colonne tuscaniche centrali a reggere un solaio ligneo, in questa stanza il percorso segnato a terra torna nella disposizione dei pannelli espositivi che si dispongono in un a formare un vero corridoio, tra uno e l’atro di questi pannelli degli spazi sufficienti a intravedere le colonne centrali, i due lati dello stretto percorso non sono paralleli e aprono in senso opposto a due restanti spazi dell’intero salone, La sala suddivisa così in queste tre parti - una di percorrenza due di esposizione - , risulta modificata nella lettura che ne annulla l’originale funzione. Questa nuova “forma”, non vuole essere permanente infatti i pannelli non sono fissi. la narrazione avviene così per momenti, per parti, , che non devono necessariamente far comprendere il “tutto”, ma suggerirlo. Così come per il percorso che non è obbligato ma suggerito. A terminare il piano altre due sale di minore dimensione e di modesto carattere, nelle quali sono presenti pannellature a parete come nella prima sala. L’allestimento prosegue al piano primo a cui si accede tramite due rampe, trattate nel progetto difformemente, in base al loro stato e al loro significato, la rampa più recente (XIX sec) rompe lo spazio al piano nobile stravolgendo l’ingresso a questo salone, che originariamente avveniva salendo dalla scala principale e oltrepassando un disimpegno. La scala ottocentesca introduce direttamente all’ambiente che ora risulta liberato dalle superfetazioni dello scorso secolo, mostrandosi come era stato previsto in origine. Questa rottura dello spazio viene marcata nel progetto da un volume che “imprigiona” la rampa e segna l’inizio della sala espositiva, la sala delle architetture. Al centro della sala in un gioco di pieni e vuoti i pannelli, espositivi, distaccati di poco gli uni dagli altri questa volta non a incorniciare delle colonne ma a richiamo delle pitture murali che raffiguranti una loggia alludono ad una lettura per “parti” e scandiscono lo spazio in una “processione” di eventi. A seguito del “gioco” sono presenti in senso ortogonale ai pannelli sopradescritti ulteriori pannellature appese ad una struttura metallica indipendente dalle capriate lignee. Tale struttura assume ad una duplice funzione, funge sia da irrigidimento della struttura (edificio) che da supporto alla pannellatura, ad essa infatti è collegata una fune, che entrerà in tensione, quando il pannello verrà ad appendersi. Infine questa fune passante da due puleggie permetterà al pannello di traslare da un lato all’altro dell’edificio, bloccandosi nella posizione desiderata tramite freno interno, azionato manualmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivi: Valutare la modalità  più efficace per la riabilitazione funzionale del limbo libero di fibula "single strut", dopo ampie resezioni per patologia neoplastica maligna del cavo orale. Metodi: Da una casistica di 62 ricostruzioni microvascolari con limbo libero di fibula, 11 casi sono stati selezionati per essere riabilitati mediante protesi dentale a supporto implantare. 6 casi sono stati trattati senza ulteriori procedure chirurgiche ad eccezione dell'implantologia (gruppo 1), affrontando il deficit di verticalità  della fibula attraverso la protesi dentaria, mentre i restanti casi sono stati trattati con la distrazione osteogenetica (DO) della fibula prima della riabilitazione protesica (gruppo 2). Il deficit di verticalità  fibula/mandibola è stato misurato. I criteri di valutazione utilizzati includono la misurazione clinica e radiografica del livello osseo e dei tessuti molli peri-implantari, ed il livello di soddisfazione del paziente attraverso un questionario appositamente redatto. Risultati: Tutte le riabilitazioni protesiche sono costituite da protesi dentali avvitate su impianti. L'età  media è di 52 anni, il rapporto uomini/donne è di 6/5. Il numero medio di impianti inseriti nelle fibule è di 5. Il periodo massimo di follow-up dopo il carico masticatorio è stato di 30 mesi per il gruppo 1 e di 38.5 mesi (17-81) di media per il gruppo 2. Non abbiamo riportato complicazioni chirurgiche. Nessun impianto è stato rimosso dai pazienti del gruppo 1, la perdita media di osso peri-implantare registrata è stata di 1,5 mm. Nel gruppo 2 sono stati riportati un caso di tipping linguale del vettore di distrazione durante la fase di consolidazione e un caso di frattura della corticale basale in assenza di formazione di nuovo osso. L'incremento medio di osso in verticalità è stato di 13,6 mm (12-15). 4 impianti su 32 (12.5%) sono andati persi dopo il periodo di follow-up. Il riassorbimento medio peri-implantare, è stato di 2,5 mm. Conclusioni: Le soluzioni più utilizzate per superare il deficit di verticalità  del limbo libero di fibula consistono nell'allestimento del lembo libero di cresta iliaca, nel posizionare la fibula in posizione ideale da un punto di vista protesico a discapito del profilo osseo basale, l'utilizzo del lembo di fibula nella versione descritta come "double barrel", nella distrazione osteogenetica della fibula. La nostra esperienza concerne il lembo libero di fibula che nella patologia neoplastica maligna utilizziamo nella versione "single strut", per mantenere disponibili tutte le potenzialità  di lunghezza del peduncolo vascolare, senza necessità  di innesti di vena. Entrambe le soluzioni, la protesi dentale ortopedica e la distrazione osteogenetica seguita da protesi, entrambe avvitate su impianti, costituiscono soluzioni soddisfacenti per la riabilitazione funzionale della fibula al di là  del suo deficit di verticalità . La prima soluzione ha preso spunto dall'osservazione dei buoni risultati della protesi dentale su impianti corti, avendo un paragonabile rapporto corona/radice, la DO applicata alla fibula, sebbene sia risultata una metodica con un numero di complicazioni più elevato ed un maggior livello di riassorbimento di osso peri-implantare, costituisce in ogni caso una valida opzione riabilitativa, specialmente in caso di notevole discrepanza mandibulo/fibulare. Decisiva è la scelta del percorso terapeutico dopo una accurata valutazione di ogni singolo caso. Vengono illustrati i criteri di selezione provenienti dalla nostra esperienza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Partendo dal problema del rapporto fra la ricostruzione di un evento storico e lo statuto del testo che lo ricostruisce, la tesi si concentra nella lettura di opere riguardanti la Seconda guerra mondiale. Sono in questo senso cruciali due opere autobiografiche trattate nella prima parte del lavoro, Rue Labat Rue Ordener di Sarah Kofman (1993) e Kindheitsmuster di Christa Wolf (1976). In questi due testi la dottoranda prova a recuperare da una parte la rimemorazione letteraria di due esperienze infantili della guerra insieme opposte e complementari dal punto di vista del posizionamento della testimonianza. Il testo della Wolf ibrida la narrazione finzionale e la memoria dell’evento storico vissuto nel ricordo di una bambina tedesca, il testo della Kofman recupera in una maniera quasi psicanalitica la memoria di una bambina ebrea vittima inconsapevole e quesi incosciente della Shoah. Di fronte a due topoi apparentemente già piu volte ripercorsi nella letteratura critica del trauma postconflitto, la tesi in questione cerca di individuare il costituirsi quasi inevitabile di un soggetto identitario che osserva, vive e successivamente recupera e racconta il trauma. Se alcune posizioni della moderna storiografia e della contemporanea riflessione sulla scrittura storiografica, sottolineano la forza e l’importanza dell’elemento narrativo all’interno della ricostruzione storica e dell’analisi dei documenti, questa tesi sembra indicare una via possibile di studio per la letteratura comparata. Una via, cioè, che non si soffermi sui fattori e sui criteri veridizionali del testo, criteri e fattori che devono restare oggetto di studio per gli storici , ma che piuttosto indaghi sul nesso ineludibile e fondativo che la scrittura stessa svela e pone in essere: il trauma, l’irrompere dell’evento storico nell’individuo diventa elemento costitutivo della propria identità, elemento al quale è difficile dare una posizione stabile ma che allo stesso tempo non si può evitare di raccontare, di mettere in discorso. Nella narrazione letteraria di eventi storici esiste dunque un surplus di senso che sta tutto nella costituzione di una posizione dalla quale raccontare, di un punto di vista. Il punto di vista (come ci ricorda De Certeau ne Les lieux des autres in quel saggio dedicato ai cannibali di Montaigne,che viene poi ripreso senza essere mai citato da Ginzburg ne Il filo e le tracce) non è mai dato a priori nel discorso, è il risultato di un conflitto e di una lotta. Il testo che rende conto e recupera la memoria di un passato storico, in particolare di un passato storico conflittuale, di una guerra, di una violenza, per quanto presenti un punto di vista preciso e posizionato, per quanto possa apparire un frutto di determinate strategie testuali e di determinati obiettivi pragmatici, è pur sempre una narrazione il cui soggetto porta in sé, identitariamente, le ferite e i traumi dell’evento storico. Nei casi di Wolf e Kofman abbiamo quindi un rispecchiamento reciproco che fra il tentativo di una ricostruzione della memoria infantile e il recupero dell’elemento intersoggettivo e storico si apre alla scrittura e alla narrazione. La posizione del soggetto che ha vissuto l’irrompere del dramma storico nel discorso lo costituisce e lo delega a essere colui che parla e colui che vede. In un qualche modo la Storia per quanto possa essere creatrice di eventi e per quanto possa trasformare l’esistenza del soggetto non è essa stessa percepibile finché non si posiziona attraverso il soggetto trasformato e modificato all’interno del discorso. In questa continua ricerca di un equilibrio possibile fra realtà e discorso si pone il problema dell’essere soggetto in mezzo ad altri soggetti. E questo in un duplice aspetto: nell’aspetto della rappresentazione dell’altro, cioè nel problema di come la memoria riorganizzi e ricrei i soggetti in gioco nell’evento storico; e poi nella rappresentazione di se stesso per gli altri, nella rappresentazione cioe del punto di vista. Se nel romanzo autobiografico di Kofman tutta la storia veniva a ricondursi alla narrazione privata del soggetto che, come in una seduta psicanalitica recupera e insieme si libera del proprio conflitto interiore, della propria memoria offesa; se nel romanzo di Wolf si cercava un equilibrio fra una soggettivita infantile ormai distante in terza persona e una soggettività rammemorante che prendeva posizione nel romanzo nella seconda persona; la cerniera sia epistemologica sia narratologica fra la prima e la seconda parte della tesi pare essere Elsa Morante e il suo romanzo La Storia. L’opera della Morante sembra infatti farsi pieno carico della responsabilità di non poter piu ridurre la narrazione del trauma alla semplice presa in carico del soggetto autobiografico. Il soggetto che, per dirla ancora con De Certeau, può esprimere il proprio punto di vista perche in qualche modo si è salvato dalla temperie della storia, non si pone nel discorso come punto di inizio e di fine di qualsiasi percezione del trauma, ma si incarna in uno o più personaggi che in un qualche modo rappresentino l’irrapresentabile e l’irrapresentato. La storia diventa quindi elemento non costitutivo di un'identità capace di ri-raccontarsi o almeno non solo, diventa fattore costitutivo di un’identità capace di raccontare l’altro, anzi gli altri, tutti coloro che il conflitto, la violenza ha in un qualche modo cancellato. Così accade all’infanzia tradita e offesa del piccolo Useppe, che viene soffocato non solo nella sua possibilita di svilupparsi, di essere punto di vista del discorso, ma anche nella possibilita di essere osservatore vivo dell’evento; cosi accade a Ida, donna e madre, che la Storia lentamente e inesorabilmente spersonalizza riducendola a essere soggetto passivo e vittima degli eventi. Ecco quindi che la strada aperta dalla Morante permette alla memoria di proiettarsi in una narrazione comune e di condividere e suddividere la posizione centrale del soggetto in una costellazione differente di soggetti. A questo punto si apre, attraverso le tecniche della storia orale e la loro narrativizzazione, una strategia di recupero della memoria evidenziata nell’ultima parte della tesi. La strada intrapresa da autori come i Wu Ming e come Andrea Levy ne è un esempio. Sganciati per evidenti ragioni biografiche e anagrafiche (sono tutti nati ben dopo la fine del secondo conflitto mondiale) da qualsiasi tentazione autobiografica, i primi intraprendono una vera e propria ridistribuzione dei punti di vista sulla storia. In romanzi come Manituana si viene a perdere, almeno a un primo e forse piu superficiale livello, qualsiasi imposizione fissa del punto di vista. Una molteplicità di soggetti si prende carico di raccontare la storia da differenti posizioni, ma la apparente molteplicità degli sguardi non si riduce a una frammentazione dell’etica del racconto quanto piuttosto alla volontà di fare emergere tra gli altri anche il punto di vista dello sconfitto e dell’inerme. Al passato oscuro della violenza storica si contrappone in un qualche modo la messa in discorso del soggetto che cerca attraverso la costituzione non solo di un soggetto ma di una pluralitàdi voci , di ritrovare un’ armonia, di riassimilare la propria memoria condividendola nel testo letterario.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo progetto, maturato in seguito a profonde riflessioni basate sull’analisi e la valutazione della situazione territoriale, è scaturito dalla volontà di fornire una risposta alle carenze funzionali e strutturali di un’area dalle molteplici potenzialità. La fascia costiera di Platamona è stata al centro di progetti di lottizzazione che, invece di tutelare l’aspetto naturalistico e unificare un sistema costiero che si estende per circa otto chilometri, hanno inserito strutture prevalentemente ricettive e turistiche in maniera piuttosto arbitraria e senza tener conto della possibilità di organizzare il progetto d’intervento tramite un apposito strumento urbanistico. Il risultato, un tessuto edilizio disomogeneo e disorganizzato, non contribuisce certo alla volontà di attribuire un carattere e un’identità al luogo; anzi, la frequenza di aree in stato di abbandono, che rischiano di diventare discariche a cielo aperto fa quasi pensare ad una situazione di stallo e di incuria sia da parte delle amministrazioni che dei privati. L’idea del progetto deriva da un approccio che ha come obiettivo il massimo sfruttamento delle risorse locali e il minor impatto possibile sul paesaggio e sul sistema attuale. La volontà è quella di riorganizzare e riqualificare gli spazi più significativi, inserendoli all’interno di un sistema di percorsi e connessioni che vogliono unificare e rendere fruibile l’intero sistema costiero fra Platamona e Marina di Sorso. Inoltre è da rivalutare l’aspetto naturalistico del SIC dello Stagno e Ginepreto di Platamona, un’oasi naturalistica che ha tutte le potenzialità per essere posta al centro di un’attività di ricerca e diventare la meta di un turismo mirato. Nel Piano di gestione dello stagno sono già stati previsti e realizzati percorsi su passerelle in legno che si snodano fra i canneti e la pineta limitrofa, con alcune torrette di avvistamento, attualmente posizionate nella zona a sud. Uno degli obiettivi è dunque quello di completare questi percorsi per gran parte del perimetro dello stagno e di stabilire un percorso ciclo-pedonale ad anello che circondi e renda fruibile l’intera area del SIC. A livello di percorsi e connessioni, oltre alla nuova pista ciclabile che correrà parallelamente alla SP 81, si cercherà di fornire nuovi collegamenti anche all’ambito della spiaggia. L’idea è di costruire una passeggiata sul fronte mare che si articoli con leggere passerelle in legno fra le dune irregolari. Si snoderebbe dalla rotonda di Platamona fino alla piazza di Marina di Sorso, per una lunghezza di circa otto chilometri. Il suo scopo è di rendere fruibile l’intera fascia di spiaggia in modo da evitare un eccessivo calpestio del sistema dunario, che purtroppo risente della forte presenza antropica dei mesi estivi. Nel ripensare questi collegamenti e percorsi, si rende necessaria la creazione di aree di sosta attrezzate che si presentano con una certa periodicità, dettata dai pettini e dalle discese a mare. Vi saranno punti di sosta ombreggiati con alberature, aiuole, sedute, fontane e giochi per bambini. Diventa dunque prioritario il fatto di rendere evidente il concetto di unitarietà del sistema costiero in questione, rendendolo riconoscibile tramite l’organizzazione di spazi, episodi e percorsi. Infine il tentativo che riguarda nello specifico il Lido Iride, è quello relativo al suo recupero. L’intento è di restaurarlo e destinarlo a nuove funzioni ricreative-culturali. La struttura principale è mantenuta invariata, soprattutto le stecche che costituivano le cabine sulla spiaggia (elementi alquanto evocativi e radicati nella memoria del luogo). Il complesso sarà riorganizzato in previsione di ospitare workshop e corsi formativi riguardanti la cultura del mare e della salvaguardia dell’ambiente. Molto attuale e sempre più emergente anche in Sardegna risulta l’archeologia subacquea, a cui sono già state dedicate apposite strutture nelle zone di Cagliari e di Orosei. Dunque si riadatteranno le cabine con lo scopo di farle divenire alloggi temporanei per coloro che seguiranno tali corsi, mentre gli altri edifici del complesso fungeranno da supporto per delle lezioni all’aperto (l’arena e la piscina) e per il ristoro o l’allestimento di spazi espositivi (l’edificio centrale del lido). A causa della posizione del complesso balneare (a ridosso della spiaggia) si presuppone che il suo utilizzo sarà prevalentemente stagionale; perciò si è pensato di fornire una struttura di supporto e d’ausilio, la cui fruizione sia auspicabile anche nei mesi invernali: il Nuovo Centro Studi di Platamona. Questo nuovo complesso consiste in una struttura dotata di laboratori, aule conferenze, alloggi e ristorante. Si attesterà sul fronte mare, seguendo la direttrice del nuovo camminamento e innalzandosi su piattaforme e palafitte per non essere eccessivamente invasivo sul sistema dunario. Consisterà in due edifici di testata alti rispettivamente tre e quattro piani, ed entrambi avranno la peculiarità di avere il basamento aperto, attraversato dall’asse della passeggiata sul mare. L’edificio a tre piani ospiterà i laboratori, l’altro il ristorante. Dietro l’edificio dei laboratori si svilupperà una corte porticata che permetterà di giungere alla sala conferenza. Nella parte retrostante i due edifici di testata saranno distribuiti delle stecche di alloggi su palafitte immerse nel verde, caratterizzate da coperture con volte a botte. Lo stile architettonico del nuovo complesso si rifà all’architettura mediterranea, che s’identifica tramite l’utilizzo di basamenti e piccole aperture in facciata, l’uso di pietre e materiali da costruzioni locali, le bianche superfici che riflettono la luce e il forte segno architettonico dei muri che marcano il terreno seguendone l’orografia fino a diventare un tutt’uno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi è la caratterizzazione termica e la definizione del potenziale geotermico dell’acquifero freatico costiero e quello semiconfinato della provincia di Ravenna. L'area di studio si estende dalla foce del fiume Reno sino alla foce del Fiume Savio, per una lunghezza complessiva pari a 30 km circa ed una larghezza di 10 km nel punto di massima distanza dal mare. Il lavoro svolto per il raggiungimento dello scopo suddetto si compone di diverse fasi. Innanzitutto è stato necessario misurare le temperature dell’acquifero. Per tale motivo sono state effettuate due campagne di monitoraggio (giugno e dicembre 2010) durante le quali, mediante apposite sonde, sono stati reperiti i dati di temperatura della falda freatica. Queste operazioni sono state possibili grazie a una rete di 56 piezometri omogeneamente distribuita sull’area di studio. In un secondo momento, si è organizzato un database in cui raccogliere tutti i valori registrati. Tale documento è stato il punto di partenza per la fase successiva, l’elaborazione dei dati. Mediante i software Excel ed EnviroInsite sono stati realizzati profili di temperatura, mappe e sezioni di temperatura dell’acquifero, le quali mostrano efficacemente le condizioni termiche dell’acquifero. Diverse le anomalie termiche riscontrate. Queste risultano giustificabili solo parzialmente dai consueti fattori proposti in letteratura quali: il clima, i corsi fluviali, la litologia, la copertura vegetale. Si è evidenziata, infatti, una particolare interazione tra il drenaggio superficiale (gestito dalle idrovore) e gli scambi di calore tra i diversi orizzonti dell’acquifero. Considerata la condizione di bassa entalpia in cui si trova l’acquifero ravennate, la valutazione del potenziale geotermico non è stata eseguita mediante il metodo proposto da Muffler & Cataldi (1977); si è determinato, invece, il rendimento potenziale di una pompa di calore geotermica. La pompa di calore risulta essere, infatti, l’unica tecnologia (attualmente in commercio) in grado di sfruttate il calore presente nell’acquifero. Possiamo concludere che nonostante i rendimenti calcolati risultino lievemente al di sotto delle soglie di rendimento consigliate in bibliografia, l’installazione della suddetta tecnologia può risultare economicamente vantaggiosa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi svolge il tema dell'abuso del diritto nell'ambito del diritto tributario comparato. Vengono individuati due limiti nella trattazione dell'argomento: l'oggetto di studio è il fenomeno abusivo riguardante esclusivamente il diritto tributario e specificamente nell'ottica comparativa dei due ordinamenti giuridici comunitario e brasiliano. Questi ultimi rivelano un importante punto comune: la distribuzione orizzontale del potere tributario. Di conseguenza una parte della tesi analizza gli ordinamenti giuridici con divisione orizzontale di potere. Con lo scopo di svolgere quest'ultima analisi, viene trattato il concetto di potestà tributaria e dei suoi elementi costitutivi, nonché della strutturazione della potestà  tributaria sia in Brasile sia nell'Unione Europea, due contesti in cui un potere centrale esercita influenza anche sugli enti detentori del potere. In questo senso vengono esposti lo storico della potestà  tributaria brasiliana, le considerazioni teoriche sul federalismo fiscale e l'assetto di quest'ultimo nel Brasile odierno; d'altra parte, riguardo all'Unione Europea, sono presentate l'analisi del concetto di sovranità  e la divisione del potere nell'ambito dell'Unione Europea, in specifico del potere tributario. Dopo aver mostrato i punti di convergenza e divergenza di questi due ordinamenti, si passa ad esaminare l'abuso del diritto come fenomeno nell'ambito tributario. Quindi si esamina la disciplina giuridica dell'abuso di diritto nel diritto tributario in entrambi ordinamenti, partendo da un excursus storico, sia in un'ottica generale sia in quella specifica del diritto tributario, ed esaminando le modalità  di abuso del diritto con riflessi tributari. Finite le suddette analisi, è stato possibile trarre conclusioni nella direzione della ricostruzione dogmatica tributaria sull'abuso di diritto in entrambi i sistemi, suggerendo elementi per l'ottimizzazione di tale disciplina.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prendendo in esame diverse angolature d’analisi è indagata la situazione attuale della produzione tradizionale della ceramica salentina. La ricerca comprende la descrizione della situazione culturale attuale, l’analisi qualitativa e quantitativa dei dati raccolti sul campo e la costruzione di un quadro generale multidimensionale della rappresentazione di un’area culturale. Il primo capitolo della tesi tratta il problema teorico dei linguaggi specialistici e delle peculiarità a essi legati. La dottoranda fornisce un quadro completo ed esaustivo della bibliografia sia italiana che anglosassone sull’argomento affrontato. Questo capitolo fa da introduzione al problema della comunicazione specialistica nell’ambito della quale si svolgono le interviste. Il secondo capitolo presenta la metodologia utilizzata durante la ricerca svolta sul campo. La metodologia della ricerca sul campo include i metodi etnografici di osservazione partecipante e linguistico antropologici di interviste non strutturate. Il terzo capitolo della tesi è dedicato alla descrizione etnografica del processo produttivo. Questo capitolo ha un valore rilevante per l’intera ricerca poiché oltre ai termini italiani sono riportati tutti i termini tradizionali e descritti dettagliatamente i momenti della produzione. Va dimostrata una profonda conoscenza della lavorazione della ceramica nel Salento non solo nel suo stato attuale ma anche nel passato. Come parte conclusiva di questo capitolo è proposta una riflessione di carattere filosofico e antropologico sul ruolo dell’artigiano come Creatore, proponendo paragoni con la figura del Demiurgo platonico descritto nel “Timeo” e l’analisi del cambiamento dello statuto di oggetto da manufatto a oggetto industriale basandosi sul lavoro di Baudrillard. Il quarto capitolo è strutturato in modo diverso rispetto agli altri perché rappresenta la parte centrale della tesi e propone quattro diversi tipi di analisi linguistica possibile. La prima analisi riguarda l’ideologia linguistica e la sua espressione nel parlato inosservato. E’ fornita la prospettiva teorica sulla problematica di ideologia linguistica e dimostrata la conoscenza dei testi sia di natura sociologica (Althusser, Bourdieu, Gouldner, Hobsbawm, Thompson, Boas) che di natura linguistica (Schieffelin Bambi B., Woolard Kathryn A., Kroskrity Paul V., eds. 1998 Language ideologies : practice and theory. New York Oxford, Oxford University press). Golovko analizza i marcatori spazio-temporali utilizzati dagli artigiani per costruire le tassonomie del pronome “noi” e la contrapposizione “noi” – altri. Questa analisi consente di distinguere i diversi livelli d’inclusione ed esclusione del gruppo. Un altro livello di analisi include la valutazione degli usi del passato e del presente nel parlato per costruire le dimensioni temporali del discorso. L’analisi dei marcatori spazio-temporali consente di proporre una teoria sulla “distanza” tra i parlanti che influisce la scelta del codice oppure la sua modifica (passaggio dal dialetto all’italiano, la scelta della varietà a seconda dell’interlocutore). La parte dedicata all’ideologia si conclude con un’analisi profonda (sia quantitativa che qualitativa) dei verbi di moto che sono stati raggruppati in una categoria denominata dalla Golovko “verbi di fase” che rappresentano usi non standard dei verbi di moto per esprimere il passaggio da una fase all’altra. Il termine “fasale” prende spunto non dalla letteratura linguistica ma dal libro di Van Gennep “Les rites de passage” che discute dell’importanza dei riti di passaggio nella cultura africana e nella ricerca etnografica e folkloristica. È stato rilevato dalla dottoranda che i passaggi da una fase produttiva all’altra hanno un valore particolare anche nella produzione della ceramica e soprattutto negli usi particolari dei verbi di moto. Analizzati in profondità, questi usi particolari rispecchiano non solo fattori linguistici ma anche la visione e la percezione di queste fasi delicate in modo particolare dagli artigiani stessi. Sono stati descritti i procedimenti linguistici come personalizzazione e alienazione dell’oggetto. Inoltre la dottoranda ha dimostrato la conoscenza della letteratura antropologica non solo inerente la zona da lei studiata ma anche di altre come, ad esempio, dell’Africa Sub Sahariana. Nella parte successiva del quarto capitolo viene proposta un’altra chiave di lettura delle problematiche linguistiche: l’analisi del lessico utilizzato dagli artigiani per poter classificare i gruppi identitari presenti nella comunità studiata. E’ proposta l’analisi dei rapporti all’interno dei gruppi professionali che sono generalmente classificati come solidarietà e distinzione. La terminologia ha origine sociologica, infatti viene proposto un quadro teorico degli studi sulla solidarietà (Durkheim, Appandurai, Harré, Zoll) e l’adattamento del termine in questo senso coniato da Bourdieu “la distiction”. L’identità linguistica è affrontata sia dal punto di vista linguistico che dal punto di vista sociologico. Per svolgere l’analisi sulle identità assunte dagli artigiani e poter ricondurre la scelta volontaria e a volte non conscia di uno stile (consistente di un insieme di termini) inteso come espressione d’identità assunta dagli artigiani, la dottoranda riflette sul termine “stile” nella sua accezione sociolinguistica, com’è usuale negli studi anglosasoni di ultima generazione (Coupland, Eckert, Irvine e altri). La dottoranda fornisce una classificazione delle identità e ne spiega la motivazione basandosi sui dati empirici raccolti. La terza parte del quarto capitolo è dedicata all’analisi del linguaggio specialistico degli artigiani e alla descrizione dei tratti solitamente assegnati a questo tipo di linguaggio (monoreferenziaità, trasparenza, sinteticità e altri). La dottoranda svolge un’analisi di carattere semantico dei sinonimi presenti nel linguaggio degli artigiani, analizza il rapporto con la lingua comune, riporta l’uso delle metafore e casi di produttività linguistica. L’ultima parte del quarto capitolo consiste nell’analisi dei tratti non standard nel linguaggio degli artigiani classificati considerando il livello di variazione (lessico, morfologia e morfosintassi e sintassi) e spiegati con gli esempi tratti dalle interviste. L’autrice riflette sui cambiamenti avvenuti nella lingua parlata italiana e nella sua varietà regionale basandosi sui lavori “classici” della linguistica italiana (Berruto, Sobrero, Stehl, Bruni, D’Achille, Berretta, Tempesta e altri) studiandone attentamente i processi evidenziati nella sua descrizione. Lo scopo e l’apice della tesi consiste nell’analisi del repertorio linguistico degli artigiani e la discussione delle dinamiche in corso (livellamento del dialetto, convergenza e divergenza del dialetto, italianizzazione e regionalizzazione dell’italiano). La dottoranda propone un suo schema di rapporti tra italiano e dialetto motivando pienamente la sua teoria. A corollario la tesi è composta anche da un glossario dei termini tecnici e un album fotografico che aumentano l’interesse del lavoro dandogli un valore culturale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La riduzione dei consumi energetici è una problematica che riguarda appieno il campo dell'autotrazione, a fronte delle misure sempre più stringenti per il taglio delle emissioni di anidride carbonica. A tal scopo, il recupero di energia dai gas di scarico tramite ciclo Rankine appare la soluzione più vantaggiosa, a fronte di onerosità e complessità affrontabili nel breve periodo. L'obiettivo della presente tesi di laurea è lo sviluppo di metodologie per la simulazione di scambiatori di calore bifase per un sistema a ciclo Rankine, utilizzato per il recupero di energia in un'autovettura. Lo svolgimento di test per la validazione dei modelli utilizzati, è risultato fondamentale al fine di ottenere il setup idoneo per la simulazione termofluidodinamica del componente oggetto di studio.