683 resultados para gruppi cogruppi omotopia spazi sospensioni sfere


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di Ferrara può essere considerata un unicum che emerge rispetto ad altre realtà urbane, pur dotate di loro peculiarità storiche e morfologiche. La base per la formazione di questa unicità, fu gettata dagli Este, e da Biagio Rossetti, che, con l'addizione erculea, raddoppiarono la superficie della città medioevale. L'addizione, fu realizzata per una previsione di aumento della popolazione,che mai si concretizzò, se non, in parte, nel corso dell'ultimo secolo. Ciò, si tradusse in una notevole stabilità del rapporto pieni/vuoti, all'interno della città: vuoti che divennero spazi verdi urbani, e pieni che, nonostante le ristrutturazioni divenute necessarie nel corso dei secoli, mantennero prevalentemente le volumetrie e i sedimi storici. Infatti, il verde degli orti e dei giardini del tessuto storico, costituisce un sistema inscindibile con il costruito, e ne caratterizza la forma urbana dall'interno. Nel corso del Novecento, il centro storico, subì notevoli cambiamenti, anche se gli interventi riguardarono prevalentemente i vuoti urbani, mantenendo quasi intatto l'esistente. L'immobilismo dei secoli passati, ha mantenuto Ferrara una città a misura d'uomo, non tormentata dal caotico traffico automobilistico delle città attuali; per le sue peculiarità, storiche e morfologiche, Ferrara fu dichiarata "Patrimonio dell'Umanità" dall'Unesco, ponendo fine ad eventuali modifiche del centro storico, che avrebbero potuto intaccarne i caratteri. L'area della quale ci occupiamo, nonostante si trovi all'interno del tessuto medioevale consolidato, ha subito delle importanti trasformazioni nel secolo scorso; il duecentesco Convento agostiniano di San Vito, che occupava gran parte dell'isolato, assieme ai giardini di Palazzo Schifanoia, fu demolito per far posto ad una nuova caserma; probabilmente perché il convento stesso, dopo le conquiste napoleoniche e con vicende alterne, era già adibito a tale funzione. La nuova caserma mal si inserisce nel tessuto urbano, poiché rappresenta un "fuori scala", un evidente distacco dal rapporto verde/costruito della città medioevale circostante. Fin dalle analisi dei primi piani regolatori del secondo dopoguerra, la caserma fu considerata un elemento incongruo con il tessuto esistente, prevedendone quindi la possibilità di demolizione; dagli anni '90, inoltre, l'area militare è inutilizzata, e oggigiorno, versa in una condizione di avanzato degrado superficiale. L'area di progetto, ha una grande importanza storica, poiché rappresentava il terzo polo estense di amministrazione del potere, dopo il Castello Estense, e l'area del Palazzo dei Diamanti. I palazzi estensi che caratterizzavano l'area in epoca rinascimentale, Palazzo Schifanoia, Palazzo Bonacossi e Palazzina Marfisa d'Este, sono sopravissuti, anche se profondamente cambiati in particolar modo negli spazi verdi. Il progetto che ci proponiamo di realizzare, vuole stabilire, un nuovo rapporto tra pieni e vuoti, basandoci sulla lettura della città storica, delle sue tipologie e peculiarità. Impostando il progetto sulla realizzazione concreta del Polo dei Musei Civici di Arte Antica di Ferrara, oggi esistente solo a livello burocratico e amministrativo, ridefiniamo una parte di città, attribuendole quella centralità nel tessuto storico, che già la caratterizzava in passato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due nuove mode che si stanno propagando sempre più tra gli innumerevoli tentativi di realizzare nuovi formati di pubblicità on-line sono la pubblicità che diventa videogame gratuito, giocabile on-line o scaricabile, chiamata advergame, e la collocazione di pubblicità, oramai nella stragrande maggioranza dinamiche, nei videogames sopratutto di grandi software house, chiamata in-game advertising. Infatti nella società odierna i pubblicitari devono camuffare i consigli per gli acquisti per fare in modo che non vengano rifiutati. L'advergame in passato è stato lodato per il suo metodo innovativo di fare pubblicità. La sua caratteristica è la capacità di divertire e intrattenere l'utente ottenendo una connotazione non intrusiva e un effetto fidelizzante, peculiarità che fa di questo mezzo uno strumento potenzialmente molto valido. Si tratta, in parole povere, di videogames spesso multiplayer, nei quali gli scenari, gli oggetti e i personaggi evocano determinati brand o prodotti. Per quello che invece riguarda l'in-game advertising, si tratta di una forma particolarmente efficace di pubblicità che permette di ottenere dei tassi di ricordo rilevanti e che consente un elevato coinvolgimento emotivo. E' a livello della creazione degli spazi pubblicitari che si scatena la fantasia degli sviluppatori: se nei giochi sportivi basta trasporre in 3D gli spazi pubblicitari presenti solitamente nella realtà, in altre tipologie di gioco è necessario sfruttare parti dell'ambientazione o creare degli intermezzi atti allo scopo. Esempio tipico è quello di manifesti pubblicitari inseriti in spazi di gioco come le locande, soprattutto nei giochi di ruolo e nelle avventure grafiche. Gli investimenti in queste particolari forme di comunicazione, crescono a tassi elevatissimi e il business è molto allettante, non a caso le principali agenzie specializzate in materia sono state acquisite da grandi colossi: AdScape Media da Google e Massive Inc. da Microsoft. L'advergame e l'in-game advertising possono essere usati per lanciare un nuovo prodotto sul mercato, per rafforzare l'immagine del brand e per ottenere un database di utenti disposti ad essere sollecitati per ottenere in modo facile e non dispendioso riscontri su future attività di marketing. Perciò mi sono proposto di analizzare la situazione odierna del marketing, in particolare la parte che riguarda la pubblicità, i vantaggi ottenuti da questa scienza dallo sviluppo tecnologico, fattore che ha determinato la nascita dei due formati pubblicitari in esame e analizzati in seguito. Inoltre effettuerò l'analisi del fenomeno che vede i grandi colossi dell'IT tentare l'inserimento come agenzie intermediarie fra le software house da una parte e le grandi multinazionali dall'altra, queste ultime alla ricerca di nuovi canali più profittevoli dove sponsorizzare le proprie attività. Cercherò infine di capire le scelte di tutti gli attori che girano attorno a questi formati pubblicitari e i benefici che ne traggono per ipotizzare quale sarà il contesto che si andrà a delineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente contributo prende le mosse dalla consapevolezza che i modelli lineari tradizionali sulle carriere (Super, 1980) hanno lasciato il passo a concettualizzazioni più complesse e non lineari (Cohen, Duberley & Mallon, 2004; Pryor & Bright, 2007; Richardson, 2002), argomento tra l’altro approfondito operando una disanima delle principali transizioni di carriera e dei fenomeni psicosociali ad esse correlate (Schlossberg, Waters & Goodman, 1995). Vengono affrontati temi attuali quali quelli della Globalizzazione riflessiva (Beck, 1999), della complessità e delle Flessibilità (Sennett, 1998) e se ne mette in luce le interrelazioni con il fenomeno delle carriere, ed in particolare delle dinamiche che ne hanno modificato progressivamente e radicalmente la natura nel corso degli ultimi trent’anni (Hall, 1976, 1996). È stato approfondito il tema dei nuovi percorsi di carriera, con particolare attenzione ai costrutti teorici della Protean Career (Carriera Versatile) e della Boundaryless Career (Carriera senza confini). Sono stati condotti due studi, mediante il metodo dell’inchiesta, proponendo dei questionari autosomministrabili a due gruppi di lavoratori dipendenti. La selezione degli strumenti da inserire nel protocollo, e quindi delle ipotesi da verificare è stata operata in funzione delle caratteristiche intrinseche dei due gruppi coinvolti, cercando comunque di valorizzare sempre il ruolo dei nuovi orientamenti di carriera all’interno del disegno di ricerca. Lo studio 1 è stato condotto su un gruppo di 540 lavoratori dipendenti provenienti da Sardegna e Sicilia. Facendo riferimento agli studi tradizionali sull’insicurezza lavorativa (Sverke & Hellgren, 2002), si è cercato di valutare l’eventuale effetto moderante dei nuovi orientamenti di carriera (Briscoe, Hall & Frautschy De Muth, 2006) circa gli effetti dell’insicurezza su benessere psicofisico (Goldberg, 1972) e coinvolgimento lavorativo (Schaufeli, Bakker & Salanova, 2006; Scaufeli, Salanova, Gonzalez-Romá & Bakker, 2002). I risultati hanno mostrato alcuni effetti parziali, ma d’altro canto è emerso che i medesimi orientamenti di carriera risultano significativamente e direttamente associati a variabili quali l’Autoefficacia, la Proattività, il benessere e il Coinvolgimento. Lo studio 2, riguardante un gruppo di 79 neolaureati di Palermo e provincia al primo inserimento lavorativo, è stato condotto nell’arco di 8 mesi con tre rilevazioni dati. In questo caso si è cercato di evidenziare eventuali effetti causali longitudinali degli orientamenti di carriera sulle variabili dipendenti già incluse nello studio 2. Le ipotesi espresse hanno trovato soltanto parziale conferma nei risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto. Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura. Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<> di Boito deve essere inequivocabilmente opera nuova, come prodotto figurativo e materiale autonomo, chiara ed inequivocabile espressione <>”. Ne deriva riassumendo che oggi l’obbiettivo deve essere quello di conservare da un lato senza non sotrarre altra materia alla fabbrica e di valorizzare, ossia aggiungere, nuove “presenze” di cultura contemporanea. Per questo si parlerà di progetto di restauro e rifunzionalizzazione. La fabbrica ha subito nel corso dell’ultimo decennio una serie di “rovinose” manomissioni, che a differenza di quelle operate in tempi più antichi (coincidenti con esigenze funzionali corrispondenti alla logica dell’adattare) appaiano ben più gravi, e contribuiscono a peggiorare la lettura del fabbricato. Il Veneto e soprattutto la zona intorno a Bassano del Grappa presenta una infinità di dimore padronali casini di caccia, resti di antiche residenze (colombare, oratori, ecc.) risalenti al periodo di maggior fioritura della residenza di “Villa” della Serenissima. Nel caso specifico di studio , quindi della rifunzionalizzazione dell’edificio, la domanda sorge spontanea; Come ristabilire un senso a questi spazi? E nell’ipotesi di poter realmente intervenire che cosa farne di questi oggetti?. E ultimo ma non ultimo in che modo poter ristabilire un “dialogo” con l’edificio in una lettura corretta del suo significato non solo per quel che riguarda la materia ma anche per ciò che ci trasmette nel “viverlo”, nell’usufruirne nel fatto stesso di poterlo vedere, passandoci davanti. tà. Lidea si forma prima ancora da un esigenza del territorio, il comune di Cassola dove ha sede la Villa,pur avendo un discreto numero di abitanti e collocandosi in posizione nevralgica in quanto molto vicino al centro diBasssano (ne è quasi la promulgazione), non possiede uno spazio espositivo /rappresentativo, un edificio a carattere pubblico, sede di “eventi” culturali locali e non. Villa Capello –Mora, potrebbe rispondere bene a questo tipo di utilizzo. Si è deciso di pensare ad un luogo a carattere espositivo che possa funzionare durante tutto l’anno e nei periodi etsivi includa anche il giardino esterno. Il progetto muove da due principi il principio di “reversibilità” e quello del “minimo intervento” sottolinenando volutamente che siano gli ogetti esposti e lo spazio dei locali a fare da protagonisti, Punti chiave nell’interpretazione degli spazi sono stati i percorsi, la “narrazione” degli oggetti esposti avviene per momenti e viene rimarcata nell’allestimento tramite i materiali i colori e le superfici espositive, perché nel momento in cui visito una mostra o un museo, è come se stessi vivendo la narrazione di un qualcosa, oggetto semplice od opera complessa che sia inteso nell’ambito museale-espositivo esso assume una capacità di trasmissione maggiore rispetto a qundo lo stesso ogetto si trova in un contesto differente, la luce e la sua disposizione nello spazio, fanno sì che il racconto sia narrato, bene o male, ancora più importante è lo sfondo su cui si staglia l’opera, che può essere chiuso, come una serie di scatole dentro la scatola (edificio) oppure aperto, con singole e indipendenti pannellature dove l’edificio riveste il carattere proprio di sfondo. Scelta la seconda delle due ipotesi, si è voluto rimarcare nella composizione degli interni i momenti della narrazione, così ad esempio accedendo dall’ingresso secondario (lato nord-ovest) al quale si è dato l’ingresso alla mostra, -superata la prima Hall- si viene, catapultati in uno spazio porticato in origine aperto e che prevediamo chiuso da una vetrata continua, portata a debita distanza dal colonnato. Questo spazio diventa la prima pagina del testo, una prima pagina bianca, uno spazio libero, di esposizione e non di relax e di presentazione dell’evento, uno spazio distributivo non votato solo a questo scopo, ma passibile di trasformazione. A rimarcare il percorso una pavimentazione in cemento lisciato, che invita l’accesso alle due sale espositive a sinista e a destra dell’edificio. Nell’ala a sinistra (rispetto al nord) si apre la stanza con camino seicentesco forse un tempo ad uso cucina? Sala che ospita dei pannelli a sospesi a muro e delle teche espositive appese a soffitto. L’ala di destra, diametralmente opposta, l’unica che al piano terra mantiene la pavimentazione originale, stabiliva il vero atrio d’entrata, nel XVII sec. riconoscibile da quattro colonne tuscaniche centrali a reggere un solaio ligneo, in questa stanza il percorso segnato a terra torna nella disposizione dei pannelli espositivi che si dispongono in un a formare un vero corridoio, tra uno e l’atro di questi pannelli degli spazi sufficienti a intravedere le colonne centrali, i due lati dello stretto percorso non sono paralleli e aprono in senso opposto a due restanti spazi dell’intero salone, La sala suddivisa così in queste tre parti - una di percorrenza due di esposizione - , risulta modificata nella lettura che ne annulla l’originale funzione. Questa nuova “forma”, non vuole essere permanente infatti i pannelli non sono fissi. la narrazione avviene così per momenti, per parti, , che non devono necessariamente far comprendere il “tutto”, ma suggerirlo. Così come per il percorso che non è obbligato ma suggerito. A terminare il piano altre due sale di minore dimensione e di modesto carattere, nelle quali sono presenti pannellature a parete come nella prima sala. L’allestimento prosegue al piano primo a cui si accede tramite due rampe, trattate nel progetto difformemente, in base al loro stato e al loro significato, la rampa più recente (XIX sec) rompe lo spazio al piano nobile stravolgendo l’ingresso a questo salone, che originariamente avveniva salendo dalla scala principale e oltrepassando un disimpegno. La scala ottocentesca introduce direttamente all’ambiente che ora risulta liberato dalle superfetazioni dello scorso secolo, mostrandosi come era stato previsto in origine. Questa rottura dello spazio viene marcata nel progetto da un volume che “imprigiona” la rampa e segna l’inizio della sala espositiva, la sala delle architetture. Al centro della sala in un gioco di pieni e vuoti i pannelli, espositivi, distaccati di poco gli uni dagli altri questa volta non a incorniciare delle colonne ma a richiamo delle pitture murali che raffiguranti una loggia alludono ad una lettura per “parti” e scandiscono lo spazio in una “processione” di eventi. A seguito del “gioco” sono presenti in senso ortogonale ai pannelli sopradescritti ulteriori pannellature appese ad una struttura metallica indipendente dalle capriate lignee. Tale struttura assume ad una duplice funzione, funge sia da irrigidimento della struttura (edificio) che da supporto alla pannellatura, ad essa infatti è collegata una fune, che entrerà in tensione, quando il pannello verrà ad appendersi. Infine questa fune passante da due puleggie permetterà al pannello di traslare da un lato all’altro dell’edificio, bloccandosi nella posizione desiderata tramite freno interno, azionato manualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività  ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità  di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità  bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto per la cittadina di Toscanella, nasce dalla volontà di dare risposta ad un’esigenza locale di crescita e riqualificazione del centro storico. L'area in oggetto riguarda gran parte della cittadina di Toscanella. Uno degli obiettivi principali è quello di rivalutare ed integrare tale sito alla luce dell'espansione demografica degli ultimi decenni, integrandolo con servizi attualmente mancanti. Punti programmatici del progetto sono: - La realizzazione di un parco fluviale che permetta il recupero e la riqualificazione del tratto di riva del rio Sabbioso compreso tra via Nenni e via Caduti del lavoro; - Un nuovo centro religioso con locali parrocchiali, chiesa e casa canonica, richiesti per inadeguatezza degli attuali; - nuovo centro polifunzionale che comprenda spazi per lo spettacolo e le arti in generale, spazi per l'attività fisica e ricettività minori (bar, spazi comuni...).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente progetto di tesi si intende proporre la riqualificazione di una porzione della cittadina di Toscanella di Dozza, attraverso la realizzazione di diversi edifici quali: una nuova chiesa parrocchiale corredata di aule e sale per le attività di catechesi ed altri spazi comuni, un centro culturale polivalente, che comprende anche diverse ricettività, un centro sportivo di modeste dimensioni con campo da calcetto all’aperto. Tutto il nuovo complesso si inserisce all’interno di un’area verde che costeggia il rio Sabbioso, e che collega attraverso un sistema di spazi aperti, i vari edifici oggetto di progettazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio lavoro di tesi è partito da uno studio approfondito del contesto in cui si trova la Darsena di Ravenna, la mia area di progetto. Tutta la storia dell’evoluzione di Ravenna è legata soprattutto a due fattori principali: la necessità di difendersi dalle incursioni esterne e il continuo adattarsi alle trasformazioni del territorio soprattutto per quanto riguarda la linea di costa e il corso dei due fiumi che la circondano, il Ronco e il Montone. Questi due fattori hanno fatto si che Ravenna sia apparsa, sin dai primi secoli d. C., una città cinta da grandi mura, circondate da fiumi. Il Ronco e il Montone, sono poi diventati, a metà del XVI sec. i protagonisti principali della storia di Ravenna. I diversi progetti che si sono susseguiti nel tempo per cercare di deviarli e allontanarli dalla città, dato che ormai rappresentavano solo un grosso pericolo di alluvione, hanno determinato l’abbandono del primo porto della città, voluto dall’imperatore Augusto e la nascita dell’attuale canale Candiano. Fin dall’inizio il nuovo porto di Ravenna ha presentato una serie di problemi legati alla scarsa profondità del fondale e ai costi di manutenzione, a tal punto che le attività del porto sono sempre state molto limitate. Oggi la Darsena di città è caratterizzata da una moltitudine di edifici di archeologia industriale, risalenti al boom economico degli anni ’50, che risultano per la maggior parte, in uno stato di degrado e abbandono, incominciato con la crisi petrolifera degli anni ’70. A partire dal P.R.G. del 1993, si sono messi in atto una serie di iniziative atte a rivitalizzare e reintegrare quest’area all’interno della città storica, in modo che non sembri più un’entità separata ma che possa diventare un grande potenziale di sviluppo per la città stessa. La politica di riqualificazione del waterfront non riguarda solo Ravenna, ma è una strategia che molte città del modo hanno adottato negli ultimi decenni per ridare lustro alla città stessa e, allo stesso tempo recuperare zone spesso lasciate al loro destino. Fra queste città ho scelto di approfondirne cinque, Baltimora, Barcellona, Genova, Amburgo e Bilbao, evidenziando le diverse situazioni ma soprattutto le diverse motivazioni che le hanno spinte a raggiungere la medesima conclusione, quella che l’area portuale rappresenta un grande fattore di sviluppo. La mia attenzione poi si è spostata su quale attività potesse essere più adatta ad assolvere questo obiettivo. Ho pensato di progettare un museo e una serie di edifici ad esso collegati, come un centro di ricerca con residenze annesse e una torre belvedere, che dessero all’area la possibilità di essere vissuta in tutto l’arco della giornata e per tutto l’anno. Prima di affrontare direttamente la parte progettuale ho cercato di capire quale fosse la tipologia di museo e quali fossero i principali elementi indispensabili che caratterizzano questi edifici. Durante lo studio di questi casi ho classificato i musei secondo 5 categorie diverse, la galleria, la rotonda, la corte, la spirale e la pianta libera, che rispecchiano anche lo sviluppo storico di questa particolare tipologia architettonica. In base a tutte queste considerazioni ho affrontato il mio progetto. L’area presa in esame è caratterizzata da un’ampia superficie su cui insistono tre imponenti edifici di archeologia industriale molto degradati e utilizzati come magazzini dalla società proprietaria dell’area. Due di questi presentano un orientamento parallelo alla tessitura dei campi, il terzo invece segue un orientamento proprio. Oltre a queste due trame nell’area se ne può rilevare una terza legata all’andamento del canale. Queste grandi cattedrali del lavoro mi hanno fatto subito pensare di poterle utilizzare come spazi espositivi per mostre permanenti e temporanee, mantenendo intatta la loro struttura portante. Ho deciso di immergere l’edificio più imponente dei tre, che si trova in asse con la strada veicolare di accesso dalla città, in una grande corte verde delimitata ai lati da due nuovi edifici a L adibiti a veri e propri musei. Se da una parte questi musei costituiscono i limiti della corte, dall’altra rappresentano le quinte sceniche di aree completamenti differenti. Il museo adiacente al canale si affaccia su una grande piazza pavimentata dove troneggia l’edificio di archeologia industriale più simile ad una basilica e che accoglie i visitatori che arrivano tramite la navetta costiera; l’altro invece guarda verso il centro di ricerca e le residenze universitarie legati tra loro da un grande campo lungo completamente verde. A concludere la composizione ho pensato ad una torre belvedere dalla pianta circolare che potesse assorbire tutte le diverse direzioni e che si trova proprio in asse con il terzo edificio di archeologia industriale e a contatto con l’acqua. Per quanto riguarda l’organizzazione interna dei musei ho scelto di proporre due sezioni dello stesso museo con caratteristiche ben distinte. Il primo museo riguarda la storia della civiltà marinara di Ravenna ed è caratterizzato da ambienti conclusi lungo un percorso prestabilito che segue un criterio cronologico, il secondo invece presenta una pianta abbastanza libera dove i visitatori possono scegliere come e su cosa indirizzare la propria visita. Questa decisione è nata dalla volontà di soddisfare le esigenze di tutta l’utenza, pensando soprattutto alla necessità di coinvolgere persone giovani e bambini. Il centro di ricerca è organizzato planimetrica mente come una grande C, dove le due ali più lunghe ospitano i laboratori mentre l’ala più corta rappresenta l’ingresso sottolineato da un portico aggettante sulla corte. Simmetricamente si trovano i sette volumi delle residenze. Ognuno di questi può alloggiare sei studenti in altrettanti monolocali con servizi annessi, e presenta al piano terra aree di relax e sale lettura comuni. La torre belvedere invece riveste un ruolo più commerciale ospitando negozi, uffici per le varie associazioni legate al mare e un ristorante su più livelli, fino ad arrivare alla lanterna, che, come il faro per le navi, diventa un vero segno di riconoscimento e di orientamento dell’area sia dal mare che dalla città.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio riportato in questa tesi ha come scopo l’osservazione e la comprensione dei processi molecolari associati alla deposizione di CaCO3 nei polimorfi di calcite e aragonite nel mollusco gasteropode Haliotis rufescens. In particolare l’attenzione si è focalizzata sullo strato glicoproteico (green layer) che si trova inserito all’interno dell’ipostraco o strato madreperlaceo. Studi precedenti suggeriscono l’ipotesi che il green layer sia una struttura polifunzionale che svolge un ruolo attivo nell’induzione di crescita dei cristalli di carbonato di calcio nella conchiglia. All’analisi microscopica il green layer si presenta come un foglietto trilaminato. Sugli strati esterni è depositata aragonite nella forma prismatica da una parte e sferulitica dall’altra. All’interno è racchiuso un core proteico, formato da glicoproteine e ricco di chitina. Questa struttura tripartita conferisce al guscio calcareo nuove proprietà meccaniche, come la resistenza alle fratture molto maggiore rispetto al minerale naturale. Il green layer è stato trattato in ambiente alcalino, l’unico in grado di solubilizzarlo. È stato ottenuto del materiale proteico che è stato caratterizzato utilizzando SDS-PAGE, colorato con Blu Comassie e all’argento per visualizzarne la componente peptidica. Il green layer è fluorescente, sono state quindi eseguite analisi spettroscopiche sull’estratto peptidico per determinarne le proprietà chimo fisiche (dipendenza dal pH dell’intensità di fluorescenza). Sono stati eseguiti esperimenti di crescita dei cristalli di CaCO3 in ambiente saturo di CaCl2 in assenza e presenza del peptide e in assenza e presenza di Mg++. I cristalli sono stati osservati al microscopio elettronico a scansione (SEM) e al microscopio confocale. Da un punto di vista spettroscopico si osserva che, eccitando l’estratto alcalino del green layer a 280 nm e 295 nm, lunghezze d’onda caratteristiche degli aminoacidi aromatici, si ottiene uno spettro di emissione che presenta una forte banda centrata a 440 nm e una spalla a circa 350 nm, quest’ultima da ascrivere all’emissione tipica di aminoacidi aromatici. L’emissione di fluorescenza dell’estratto dal green layer dipende dal pH per tutte le bande di emissione; tale effetto è particolarmente visibile per lo spettro di emissione a 440 nm, la cui lunghezza d’onda di emissione e l’intensità dipendono dalla ionizzazione di aminoacidi acidi (pKa = 4) e dell’istidina (pKa = 6.5 L’emissione a 440 nm proviene invece da un’eccitazione il cui massimo di eccitazione è centrato a 350 nm, tipica di una struttura policiclica aromatica. Poiché nessun colorante estrinseco viene isolato dalla matrice del green layer a seguito dei vari trattamenti, tale emissione potrebbe derivare da una modificazione posttraduzionale di aminoacidi le cui proprietà spettrali suggeriscono la formazione di un prodotto di dimerizzazione della tirosina: la ditirosina. Questa struttura potrebbe essere la causa del cross-link che rende resistente il green layer alla degradazione da parte di agenti chimici ed enzimatici. La formazione di ditirosina come fenomeno post-traduzionale è stato recentemente acquisito come un fenomeno di origine perossidativa attraverso la formazione di un radicale Tyr ed è stato osservato anche in altri organismi caratterizzati da esoscheletro di tipo chitinoso, come gli insetti del genere Manduca sexta. Gli esperimenti di cristallizzazione in presenza di estratto di green layer ne hanno provato l’influenza sulla nucleazione dei cristalli. In presenza di CaCl2 avviene la precipitazione di CaCO3 nella fase calcitica, ma la conformazione romboedrica tipica della calcite viene modificata dalla presenza del peptide. Inoltre aumenta la densità dei cristalli che si aggregano a formare strutture sferiche di cristalli incastrati tra loro. Aumentando la concentrazione di peptide, le sfere a loro volta si uniscono tra loro a formare strutture geometriche sovrapposte. In presenza di Mg++, la deposizione di CaCO3 avviene in forma aragonitica. Anche in questo caso la morfologia e la densità dei cristalli dipendono dalla concentrazione dello ione e dalla presenza del peptide. È interessante osservare che, in tutti i casi nei quali si sono ottenute strutture cristalline in presenza dell’estratto alcalino del green layer, i cristalli sono fluorescenti, a significare che il peptide è incluso nella struttura cristallina e ne induce la modificazione strutturale come discusso in precedenza. Si osserva inoltre che le proprietà spettroscopiche del peptide in cristallo ed in soluzione sono molto diverse. In cristallo non si ha assorbimento alla più corta delle lunghezze d’onda disponibili in microscopia confocale (405 nm) bensì a 488 nm, con emissione estesa addirittura sino al rosso. Questa è un’indicazione, anche se preliminare, del fatto che la sua struttura in soluzione e in cristallo è diversa da quella in soluzione. In soluzione, per un peptide il cui peso molecolare è stimato tra 3500D (cut-off della membrana da dialisi) e 6500 D, la struttura è, presumibilmente, totalmente random-coil. In cristallo, attraverso l’interazione con gli ioni Ca++, Mg++ e CO3 -- la sua conformazione può cambiare portando, per esempio, ad una sovrapposizione delle strutture aromatiche, in modo da formare sistemi coniugati non covalenti (ring stacking) in grado di assorbire ed emettere luce ad energia più bassa (red shift).