1000 resultados para Rischio di incidente rilevante


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’attenta analisi della letteratura scientifica su argomenti riguardanti i contaminanti ambientali oggetto di studio (i policlorodifenili) ha permesso di raccogliere dati utili riguardanti le proprietà di queste molecole, la loro diffusione e la loro pericolosità. Oggetto della ricerca è stato lo studio in vitro del potenziale citotossico e trasformante dei PCB, utilizzando come riferimento una miscela commerciale di PCB, l’Aroclor 1260, e di un MIX di 18 congeneri ricostituito in laboratorio. Il lavoro è proseguito con la valutazione degli effetti di queste miscele e di due congeneri singoli (PCB 118 e PCB 153) su linee cellulari diverse in test di vitalità a breve termine. L’utilizzo di test specifici ha poi permesso la valutazione di un possibile potenziale estrogenico. Una volta ottenuto un quadro generale sui possibili effetti delle miscele grazie ai risultati dei test funzionali, è stata valutata la modulazione, da parte delle molecole e/o di miscele delle stesse, dell’espressione di geni coinvolti nella risposta ad estrogeni o a composti diossino simili, andando ad effettuare un’analisi di tipo molecolare con Real-Time PCR (RT-PCR) e analizzando nello specifico marcatori di pathway dell’Aryl Hydrocarbon Receptor (AhR) o dell’Estrogen Receptor (ER). In ultima analisi al fine di verificare l’applicabilità di biomarkers di espressione a situazioni di contaminazioni reali, ci si è focalizzati su campioni estratti da matrici ambientali, ed in particolare linee cellulari di interesse sono state esposte a estratti di sedimenti provenienti da siti inquinati. L’approccio scelto è stato di tipo molecolare, con lo scopo di individuare pathway da valutare in un secondo momento in test funzionali specifici. L’attività di ricerca si è avvalsa della tecnica del DNA-microarray per valutare la modulazione dell’espressione genica in risposta all’esposizione a contaminanti ambientali. In questo modo è possibile definire i profili di espressione genica che sottendono a risposte biologiche complesse nell’intento di individuare biomarcatori in grado di predire il rischio per l’uomo, e di consentire la stima di una relazione diretta tra esposizione ed effetti possibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the last decade the interest for submarine instability grew up, driven by the increasing exploitation of natural resources (primary hydrocarbons), the emplacement of bottom-lying structures (cables and pipelines) and by the development of coastal areas, whose infrastructures increasingly protrude to the sea. The great interest for this topic promoted a number of international projects such as: STEAM (Sediment Transport on European Atlantic Margins, 93-96), ENAM II (European North Atlantic Margin, 96-99), GITEC (Genesis and Impact of Tsunamis on the European Coast 92-95), STRATAFORM (STRATA FORmation on Margins, 95-01), Seabed Slope Process in Deep Water Continental Margin (Northwest Gulf of Mexico, 96-04), COSTA (Continental slope Stability, 00-05), EUROMARGINS (Slope Stability on Europe’s Passive Continental Margin), SPACOMA (04-07), EUROSTRATAFORM (European Margin Strata Formation), NGI's internal project SIP-8 (Offshore Geohazards), IGCP-511: Submarine Mass Movements and Their Consequences (05-09) and projects indirectly related to instability processes, such as TRANSFER (Tsunami Risk ANd Strategies For the European region, 06-09) or NEAREST (integrated observations from NEAR shore sourcES of Tsunamis: towards an early warning system, 06-09). In Italy, apart from a national project realized within the activities of the National Group of Volcanology during the framework 2000-2003 “Conoscenza delle parti sommerse dei vulcani italiani e valutazione del potenziale rischio vulcanico”, the study of submarine mass-movement has been underestimated until the occurrence of the landslide-tsunami events that affected Stromboli on December 30, 2002. This event made the Italian Institutions and the scientific community more aware of the hazard related to submarine landslides, mainly in light of the growing anthropization of coastal sectors, that increases the vulnerability of these areas to the consequences of such processes. In this regard, two important national projects have been recently funded in order to study coastal instabilities (PRIN 24, 06-08) and to map the main submarine hazard features on continental shelves and upper slopes around the most part of Italian coast (MaGIC Project). The study realized in this Thesis is addressed to the understanding of these processes, with particular reference to Stromboli submerged flanks. These latter represent a natural laboratory in this regard, as several kind of instability phenomena are present on the submerged flanks, affecting about 90% of the entire submerged areal and often (strongly) influencing the morphological evolution of subaerial slopes, as witnessed by the event occurred on 30 December 2002. Furthermore, each phenomenon is characterized by different pre-failure, failure and post-failure mechanisms, ranging from rock-falls, to turbidity currents up to catastrophic sector collapses. The Thesis is divided into three introductive chapters, regarding a brief review of submarine instability phenomena and related hazard (cap. 1), a “bird’s-eye” view on methodologies and available dataset (cap. 2) and a short introduction on the evolution and the morpho-structural setting of the Stromboli edifice (cap. 3). This latter seems to play a major role in the development of largescale sector collapses at Stromboli, as they occurred perpendicular to the orientation of the main volcanic rift axis (oriented in NE-SW direction). The characterization of these events and their relationships with successive erosive-depositional processes represents the main focus of cap.4 (Offshore evidence of large-scale lateral collapses on the eastern flank of Stromboli, Italy, due to structurally-controlled, bilateral flank instability) and cap. 5 (Lateral collapses and active sedimentary processes on the North-western flank of Stromboli Volcano), represented by articles accepted for publication on international papers (Marine Geology). Moreover, these studies highlight the hazard related to these catastrophic events; several calamities (with more than 40000 casualties only in the last two century) have been, in fact, the direct or indirect result of landslides affecting volcanic flanks, as observed at Oshima-Oshima (1741) and Unzen Volcano (1792) in Japan (Satake&Kato, 2001; Brantley&Scott, 1993), Krakatau (1883) in Indonesia (Self&Rampino, 1981), Ritter Island (1888), Sissano in Papua New Guinea (Ward& Day, 2003; Johnson, 1987; Tappin et al., 2001) and Mt St. Augustine (1883) in Alaska (Beget& Kienle, 1992). Flank landslide are also recognized as the most important and efficient mass-wasting process on volcanoes, contributing to the development of the edifices by widening their base and to the growth of a volcaniclastic apron at the foot of a volcano; a number of small and medium-scale erosive processes are also responsible for the carving of Stromboli submarine flanks and the transport of debris towards the deeper areas. The characterization of features associated to these processes is the main focus of cap. 6; it is also important to highlight that some small-scale events are able to create damage to coastal areas, as also witnessed by recent events of Gioia Tauro 1978, Nizza, 1979 and Stromboli 2002. The hazard potential related to these phenomena is, in fact, very high, as they commonly occur at higher frequency with respect to large-scale collapses, therefore being more significant in terms of human timescales. In the last chapter (cap. 7), a brief review and discussion of instability processes identified on Stromboli submerged flanks is presented; they are also compared with respect to analogous processes recognized in other submerged areas in order to shed lights on the main factors involved in their development. Finally, some applications of multibeam data to assess the hazard related to these phenomena are also discussed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di laurea nasce da una collaborazione con il Centro Studi Vitruviani di Fano, un’associazione nata il 30 Settembre 2010 nella mia città. Le note vicende riguardanti la Basilica vitruviana di Fano fanno della città adriatica il luogo più autorevole per accogliere un Centro Studi Internazionale dedicato all’opera di Vitruvio. Questa associazione è nata come contenitore di riferimento per eventi e iniziative legate al mondo della classicità intesa come momento storico, ma anche come più ampio fenomeno non solo artistico che interessa trasversalmente tutta la cultura occidentale. La creazione di un’istituzione culturale, di fondazione pubblico-privata, con l'obiettivo di porsi a riferimento internazionale per il proprio ambito di ricerca, è notizia comunque rilevante in un periodo in cui lo Stato vara l’articolo 7 comma 22 di una legge che ribadisce la fine dei finanziamenti agli enti, agli istituti, e alle fondazioni culturali. Il Centro Studi Vitruviani dovrà diventare presto sede di momenti scientifici alta, borse di studio, occasioni divulgative, mostre, iniziative didattiche. L’alto livello scientifico mi si è presentato subito chiaro durante questi mesi di collaborazione con il Centro, quando ho avuto l’occasione di incontrare e conoscere e contattare personalità quali i Professori Salvatore Settis, Pierre Gros, Howard Burns, Antonio Corso, Antonio Monterroso e Piernicola Pagliara. Attualmente nella mia città il Centro Studi ha una sede non adeguato, non è fruibile al pubblico (per problemi accessi in comune con altri Enti) e non è riconoscibile dall’esterno. L’attuale sede è all’interno del complesso conventuale del S.Agostino. Il Centro Studi mi ha proposto di valutare la possibilità di un ampliamento dell’associazione in questo edificio storico. Nel mio progetto è stato previsto un processo di acquisizione totale del complesso, con un ripensamento dell’accesso riconoscibile dall’esterno, e un progetto di rifunzionalizzazione degli spazi interni. È stata inserita un’aula per la presentazione di libri, incontri e congressi, mostre ed esposizioni, pubblicazioni culturali e specialistiche. Il fatto interessante di questa sede è che l’edificio vive sulle rovine di un tempio romano, già visitabile e inserite nelle visite della città sotterranea. Fano, infatti, è una città di mare, di luce e nello stesso tempo di architetture romane sotterranee. L’identità culturale e artistica della città è incisa nelle pieghe dei suoi resti archeologici. Le mura augustee fanesi costituiscono il tratto più lungo di mura romane conservate nelle città medio-adriatiche. Degli originari 1750 metri, ne rimangono circa 550. Di grande suggestione sono le imponenti strutture murarie rinvenute sotto il complesso del Sant’Agostino che hanno stimolato per secoli la fantasia e suscitato l'interesse di studiosi ed appassionati. Dopo la prima proposta il Centro Studi Vitruviani mi ha lanciato una sfida interessante: l’allargamento dell’area di progetto provando a ripensare ad una musealizzazione delle rovine del teatro romano dell’area adiacente. Nel 2001 l’importante rinvenimento archeologico dell’edificio teatrale ha donato ulteriori informazioni alle ricostruzione di una pianta archeologica della città romana. Questa rovine tutte da scoprire e da ripensare mi si sono presentate come un’occasione unica per il mio progetto di tesi ed, inoltre, estremamente attuali. Nonostante siano passati dieci anni dal rinvenimento del teatro, dell’area mancava un rilievo planimetrico aggiornato, un’ipotesi ricostruttiva delle strutture. Io con questo lavoro di Tesi provo a colmare queste mancanze. La cosa che ritengo più grave è la mancanca di un progetto di musealizzazione per inserire la rovina nelle visite della Fano romana sotteranea. Spero con questa tesi di aver donato materiale e suggestioni alla mia città, per far comprendere la potenzialità dell’area archeologica. Per affrontare questo progetto di Tesi sono risultate fondamentali tre esperienze maturate durante il mio percorso formativo: prima fra tutte la partecipazione nel 2009 al Seminario Internazionale di Museografia di Villa Adriana Premio di Archeologia e Architettura “Giambattista Piranesi” organizzato nella nostra facoltà dal Prof. Arch. Sandro Pittini. A noi studenti è stata data la possibilità di esercitarci in un progetto di installazioni rigorosamente temporanee all’interno del sedime archeologico di Villa Adriana, grande paradigma per l’architettura antica così come per l’architettura contemporanea. Nel corso del quarto anno della facoltà di Architettura ho avuto l’occasione di seguire il corso di Laboratorio di Restauro con i professori Emanuele Fidone e Bruno Messina. Il laboratorio aveva come obiettivo principale quello di sviluppare un approccio progettuale verso la preesistenza storica che vede l'inserimento del nuovo sull'antico non come un problema di opposizione o di imitazione, ma come fertile terreno di confronto creativo. Durante il quinto anno, ho scelto come percorso conclusivo universitario il Laboratorio di Sintesi Finale L’architettura del Museo, avendo già in mente un progetto di tesi che si rivolgesse ad un esercizio teorico di progettazione di un vero e proprio polo culturale. Il percorso intrapreso con il Professor Francesco Saverio Fera mi ha fatto comprendere come l’architettura dell'edificio collettivo, o più semplicemente dell’edificio pubblico si lega indissolubilmente alla vita civile e al suo sviluppo. È per questo che nei primi capitoli di questa Tesi ho cercato di restituire una seria e attenta analisi urbana della mia città. Nel progetto di Tesi prevedo uno spostamento dell’attuale Sezione Archeologica del Museo Civico di Fano nell’area di progetto. Attualmente la statuaria e le iscrizioni romane sono sistemate in sei piccole sale al piano terra del Palazzo Malatestiano: nel portico adiacente sono esposti mosaici e anfore sottoposte all’azione continua di volatili. Anche la Direttrice del Museo, la Dott.ssa Raffaella Pozzi è convinta del necessario e urgente spostamento. Non è possibile lasciare la sezione archeologica della città all’interno degli insufficienti spazi del Palazzo Malatestiano con centinaia di reperti e materiali vari (armi e uniformi, pesi e misure, ceramiche, staturia, marmi, anfore e arredi) chiusi e ammassati all’interno di inadeguati depositi. Il tutto è stato opportunamente motivato in un capitolo di questa Tesi. Credo fortemente che debbano essere le associazioni quali il CSV assieme al già attivissimo Archeclub di Fano e il Museo Archeologico, i veri punti di riferimento per questa rinascita culturale locale e territoriale, per promuovere studi ed iniziative per la memoria, la tutela e la conservazione delle fabbriche classiche e del locale patrimonio monumentale. Questo lavoro di Tesi vuole essere un esercizio teorico che possa segnare l’inizio di un nuovo periodo culturale per la mia città, già iniziato con l’istituzione del Centro Studi Vitruviani. L’evento folkloristico della Fano dei Cesari, una manifestazione sicuramente importante, non può essere l’unico progetto culturale della città! La “Fano dei Cesari” può continuare ad esistere, ma deve essere accompagnata da grandi idee, grandi mostre ed eventi accademici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel contesto della progettazione di interventi di difesa da frane di crollo, la tesi è rivolta allo studio del comportamento di opere di protezione dalla caduta massi, con particolare riguardo alle barriere paramassi, strutture metalliche progettate per arrestare blocchi in caduta lungo un versante. Specificamente, il comportamento altamente non lineare di queste strutture è stato osservato mediante modellazione numerica agli elementi finiti con codice di calcolo STRAUS 7 v.2.3.3. La formulazione dei modelli è stata sviluppata a partire dai dati contenuti nel Catasto delle opere di protezione (VISO), recentemente messo a punto dalla Provincia Autonoma di Bolzano, nel contesto di una più ampia procedura di analisi della pericolosità di versante in presenza di opere di protezione, finalizzata ad una appropriata gestione del rischio indotto da frane di crollo. Sono stati messi a punto una serie di modelli agli elementi finiti di alcune tra le tipologie più ricorrenti di barriere paramassi a limitata deformabilità. Questi modelli, sottoposti ad una serie di analisi dinamiche e non-lineari, intese a simulare l’impatto di blocchi aventi massa e velocità nota, hanno permesso di osservare la risposta complessiva di queste strutture in regime dinamico identificando i meccanismi di rottura a partire dall’osservazione della formazione di cerniere plastiche, monitorando contestualmente grandezze rilevanti quali gli spostamenti e le forze mobilitate in fondazione. Questi dati, opportunamente interpretati, possono fornire i parametri necessari all’implementazione di più ampie procedure di analisi del rischio indotto da movimenti frane di crollo.

Relevância:

30.00% 30.00%

Publicador:

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Nucleoside 5-Azacitidine (5-Aza) in high risk MDS patients (pts) at a dose of 75mg/mq/day subcutaneously for 7 days, every 28 days, induces high hematologic response rates (hematologic improvement (HI) 50-60%, complete remission (CR) 10-30%) and prolongation of survival (at 2 years 50,8%). Aim: The role of 5-Aza in low-risk MDS patients is not well defined but its use in the earlier phases of disease could be more effective and useful to control the expansion of MDS clone and disease progression. In our phase II, prospective, multicentric trial a low-dose schedule of 5-Aza (75 mg/mq daily for 5 consecutive days every 28 days) was given to low-risk MDS pts in order to evaluate its efficacy and tolerability and to identify biological markers to predict the response. Methods: From September 2008 to February 2010, 34 patients were enrolled into the study. Fifteen patients had refractory anemia (RA), 5 patients refractory anemia with ringed sideroblasts (RARS), 7 patients refractory cytopenia with multilineage dysplasia (RCMD) and 7 patients refractory anemia with excess blasts-1 (RAEB-1). All patients failed previously EPO therapy and were in chronic red blood cell (RBC) supportive care with a median transfusions requirement of 4 units/monthly. The response treatment criteria was according to IWG 2006. Results: At present time 31 out of 34 pts are evaluable: 12/31 pts (39%) completed the treatment plan (8 courses), 7/31 pts (22%) performed the first 4 courses, 8/31 (26%) made 1 to 3 courses and 4/31 (13%) died during the treatment period. Out of 12 pts who completed the 8 courses of therapy 10 (83%) obtained an HI, 2/12 (17%) maintained a stable disease. Out of 10 pts who obtained HI, 4 pts (40%) achieved a CR. Generally the drug was very well tolerated. The most commonly reported hematologic toxicities were neutropenia (55%) and thrombocytopenia (19%) but they were transitory and usually no delay of treatment was necessary. 2/4 pts died early after the 1th cycle for septic shock and gastrointestinal hemorrage respectively whereas 2/4 pts died in a condition of stable disease after the 4th cycle for pneumonia and respiratory distress. Samples for biologic studies have been collected from the pts before starting the therapy and at the end of 4th and 8th course. Preliminary data on the lipid signalling pathways suggested a direct correlation between PI-PLC-β1 gene expression and 5-Aza responsiveness. Conclusion: Interim analysis of our study based on the small number of cases who completed the treatment program, shows that 83% of pts obtain an HI and 40% obtain a CR. 4 patients died during the treatment and even if the causes were reported as no related to the therapy it has been considered that caution has to be reserved in given 5-Aza in these pts who are elderly and frail. Preliminary data of PI-PLC-β1 gene expression suggest that this and probably other biological markers could help us to know a priori who are the patients who have more chances to respond.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il problema che si cerca di risolvere attraverso la gestione quantitativa del portafoglio è la riduzione del rischio tramite strategie che non dipendano dalla diversificazione dei titoli che compongono il portafoglio. Nel momento in cui si decide di applicare un trading system su un determinato gruppo di asset, il capitale non viene allocato automaticamente su tutti i titoli e si deve affrontare invece un continuo investimento tramite l’apertura dinamica di posizioni sul mercato.Questo significa che la diversificazione non è più una misura adeguata del rischio sostenuto poiché i rendimenti attesi dell’investimento non dipendono più dalle proprietà stesse degli strumenti scelti, ma dalla profittabilità dei segnali generati dalla logica del trading system su questi. Bisogna testare in questo caso le performance del sistema a livello statistico e prevedere anche, per esempio, che l’algoritmo possa generare dei segnali errati che portano a delle posizioni in perdita. Il portafoglio a livello quantitativo deve essere gestito tramite dei trading system che abbiano la possibilità di valutare aspetti globali, come il profitto totale di tutte le posizioni attualmente aperte, o l’intero rischio sostenuto dal capitale gestito. Le decisioni non vengono prese dall’analisi delle prestazioni individuali che la strategia ottiene operando sui singoli titoli. Per affrontare una possibile soluzione a questa problematica si sono quindi selezionati due trading system le cui prestazioni fossero robuste su un intero portafoglio e non solo su determinati titoli. In un successivo momento vengono analizzate le prestazioni del portafoglio aggiungendo ai test due ulteriori strategie di uscita: lo stoploss di portafoglio e il target di portafoglio. Nonostante esse ricalchino idee ampiamente utilizzate per la gestione delle singole posizioni su un titolo, per i test si è deciso di modificarle implementando la gestione globale del capitale all’interno del trading system di portafoglio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Pialassa Baiona è una laguna sottoposta a diversi vincoli normativi, visto il suo inquadramento tra le aree SIC e ZPS, e soggetta a diverse sorgenti di disturbo antropico, più intense negli anni ‘50-‘70. Questa tesi si propone lo scopo di valutare il rischio associato ai metalli bivalenti presenti nei sedimenti della Pialassa Baiona attraverso tre approcci: il primo riguarda la determinazione della frazione biodisponibile dei metalli presenti nei sedimenti attraverso la determinazione dei solfuri acidi volatili (AVS) e dei metalli simultaneamente estraibili (SEM), nonché la valutazione della potenziale tossicità dei sedimenti attraverso la valutazione del rapporto molare SEM/AVS, il secondo approccio considera invece il contenuto pseudo totale dei metalli bivalenti (Cd, Cu, Ni, Pb e Zn) e il loro confronto sia con i valori tipici di fondo naturale del Mar Adriatico che con i valori guida di riferimento internazionale (Threshold Effect Level, TEL e Probable Effect Level, PEL) al fine di valutare lo stato di qualità dei sedimenti della zona d’indagine. Il terzo approccio considera l’influenza del gradiente naturale terra-mare tipico delle zone di transizione e del gradiente antropico legato alla vicinanza dell’area industriale alla Pialassa Baiona, sulla distribuzione spaziale dei metalli oggetto di questo studio. I risultati ottenuti evidenziano che l’area più prossima alla zona industriale e al contempo più lontana dall’effetto del ricambio delle acque e di dilavamento ad opera del mare, è risultata quella con livelli significativamente più elevati per la maggior parte dei metalli analizzati. Questo permette di ipotizzare un’influenza diretta delle sorgenti di inquinanti, ma anche un effetto dispersivo della circolazione. Gli AVS hanno invece evidenziato un gradiente terra-mare; ciò comporta che nelle zone più prossime all’influenza del mare si sono riscontrate concentrazioni minori di AVS. La valutazione della potenziale tossicità dei metalli in termini di rapporto SEM/AVS non ha evidenziato la presenza di siti a rischio per il biota acquatico, se non per un unico sito prossimo all’area industriale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.