650 resultados para Nanofili silicio livelli profondi DLTS
Resumo:
Con questo lavoro di tesi si è cercato da un lato di dare un contributo al settore dei sensori chimici, caratterizzando e sviluppando diversi sistemi che presentano promettenti proprietà per l’utilizzo nella realizzazione di sensori luminescenti, e dall’altro di studiare sistemi di nanoparticelle di oro per identificarne e caratterizzarne i processi che portano all’interazione con un’unità fluorescente di riferimento, il pirene. Quest’ultima parte della tesi, sviluppata nel capitolo 4, sebbene possa apparire “slegata” dall’ambito della sensoristica, in realtà non lo è in quanto il lavoro di ricerca svolto rappresenta una buona base di partenza per lo sviluppo di sistemi di nanoparticelle metalliche con un possibile impiego in campo biomedico e diagnostico. Tutte le specie studiate, seppur molto diverse tra loro, posseggono quindi buone caratteristiche di luminescenza ed interessanti capacità di riconoscimento, più o meno selettivo, di specie in soluzione o allo stato gassoso. L’approccio generale che è stato adottato comporta una iniziale caratterizzazione in soluzione ed una susseguente ottimizzazione del sistema mirata a passare al fissaggio su supporti solidi in vista di possibili applicazioni pratiche. A tal proposito, nel capitolo 3 è stato possibile ottenere un monostrato organico costituito da un recettore (un cavitando), dotato di una parte fluorescente le cui proprietà di luminescenza sono sensibili alla presenza di una funzione chimica che caratterizza una classe di analiti, gli alcoli. E’ interessante sottolineare come lo stesso sistema in soluzione si comporti in maniera sostanzialmente differente, mostrando una capacità di segnalare l’analita molto meno efficiente, anche in funzione di una diversa orientazione della parte fluorescente. All’interfaccia solido-gas invece, l’orientamento del fluoroforo gioca un ruolo chiave nel processo di riconoscimento, e ottimizzando ulteriormente il setup sperimentale e la composizione dello strato, sarà possibile arrivare a segnalare quantità di analita sempre più basse. Nel capitolo 5 invece, è stato preso in esame un sistema le cui potenzialità, per un utilizzo come sonda fluorescente nel campo delle superfici di silicio, sembra promettere molto bene. A tal proposito sono stati discussi anche i risultati del lavoro che ha fornito l’idea per la concezione di questo sistema che, a breve, verrà implementato a sua volta su superficie solida. In conclusione, le ricerche descritte in questa tesi hanno quindi contribuito allo sviluppo di nuovi chemosensori, cercando di migliorare sia le proprietà fotofisiche dell’unità attiva, sia quelle dell’unità recettrice, sia, infine, l’efficienza del processo di traduzione del segnale. I risultati ottenuti hanno inoltre permesso di realizzare alcuni prototipi di dispositivi sensoriali aventi caratteristiche molto promettenti e di ottenere informazioni utili per la progettazione di nuovi dispositivi (ora in fase di sviluppo nei laboratori di ricerca) sempre più efficienti, rispondendo in tal modo alle aspettative con cui questo lavoro di dottorato era stato intrapreso.
Resumo:
L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.
Resumo:
L’obiettivo della presente dissertazione è la valutazione della vulnerabilità sismica del nucleo storico del complesso di San Giovanni in Monte a Bologna, con i metodi indicati nelle “Linee Guida” del Ministero per i Beni e le Attività Culturali, secondo i livelli di valutazione LV1 ed LV3. Gli edifici oggetto di studio si inseriscono all’interno di un aggregato storico unico nel suo genere che ha avuto come centro di sviluppo la Chiesa di San Giovanni in Monte e successivamente il complesso costituito da Chiesa e monastero adiacente.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Si considera nell'approssimazione di Born-Oppenheimer una molecola pluriatomica, di cui due livelli elettronici presentano la configurazione di una buca stabile sovrapposta a una instabile. Si dimostra che, con un errore inversamente proporzionale alla massa dei nuclei, le risonanze coincidono con autovalori di due specifici operatori scalari autoaggiunti.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.
Resumo:
Il mio lavoro di tesi è partito da uno studio approfondito del contesto in cui si trova la Darsena di Ravenna, la mia area di progetto. Tutta la storia dell’evoluzione di Ravenna è legata soprattutto a due fattori principali: la necessità di difendersi dalle incursioni esterne e il continuo adattarsi alle trasformazioni del territorio soprattutto per quanto riguarda la linea di costa e il corso dei due fiumi che la circondano, il Ronco e il Montone. Questi due fattori hanno fatto si che Ravenna sia apparsa, sin dai primi secoli d. C., una città cinta da grandi mura, circondate da fiumi. Il Ronco e il Montone, sono poi diventati, a metà del XVI sec. i protagonisti principali della storia di Ravenna. I diversi progetti che si sono susseguiti nel tempo per cercare di deviarli e allontanarli dalla città, dato che ormai rappresentavano solo un grosso pericolo di alluvione, hanno determinato l’abbandono del primo porto della città, voluto dall’imperatore Augusto e la nascita dell’attuale canale Candiano. Fin dall’inizio il nuovo porto di Ravenna ha presentato una serie di problemi legati alla scarsa profondità del fondale e ai costi di manutenzione, a tal punto che le attività del porto sono sempre state molto limitate. Oggi la Darsena di città è caratterizzata da una moltitudine di edifici di archeologia industriale, risalenti al boom economico degli anni ’50, che risultano per la maggior parte, in uno stato di degrado e abbandono, incominciato con la crisi petrolifera degli anni ’70. A partire dal P.R.G. del 1993, si sono messi in atto una serie di iniziative atte a rivitalizzare e reintegrare quest’area all’interno della città storica, in modo che non sembri più un’entità separata ma che possa diventare un grande potenziale di sviluppo per la città stessa. La politica di riqualificazione del waterfront non riguarda solo Ravenna, ma è una strategia che molte città del modo hanno adottato negli ultimi decenni per ridare lustro alla città stessa e, allo stesso tempo recuperare zone spesso lasciate al loro destino. Fra queste città ho scelto di approfondirne cinque, Baltimora, Barcellona, Genova, Amburgo e Bilbao, evidenziando le diverse situazioni ma soprattutto le diverse motivazioni che le hanno spinte a raggiungere la medesima conclusione, quella che l’area portuale rappresenta un grande fattore di sviluppo. La mia attenzione poi si è spostata su quale attività potesse essere più adatta ad assolvere questo obiettivo. Ho pensato di progettare un museo e una serie di edifici ad esso collegati, come un centro di ricerca con residenze annesse e una torre belvedere, che dessero all’area la possibilità di essere vissuta in tutto l’arco della giornata e per tutto l’anno. Prima di affrontare direttamente la parte progettuale ho cercato di capire quale fosse la tipologia di museo e quali fossero i principali elementi indispensabili che caratterizzano questi edifici. Durante lo studio di questi casi ho classificato i musei secondo 5 categorie diverse, la galleria, la rotonda, la corte, la spirale e la pianta libera, che rispecchiano anche lo sviluppo storico di questa particolare tipologia architettonica. In base a tutte queste considerazioni ho affrontato il mio progetto. L’area presa in esame è caratterizzata da un’ampia superficie su cui insistono tre imponenti edifici di archeologia industriale molto degradati e utilizzati come magazzini dalla società proprietaria dell’area. Due di questi presentano un orientamento parallelo alla tessitura dei campi, il terzo invece segue un orientamento proprio. Oltre a queste due trame nell’area se ne può rilevare una terza legata all’andamento del canale. Queste grandi cattedrali del lavoro mi hanno fatto subito pensare di poterle utilizzare come spazi espositivi per mostre permanenti e temporanee, mantenendo intatta la loro struttura portante. Ho deciso di immergere l’edificio più imponente dei tre, che si trova in asse con la strada veicolare di accesso dalla città, in una grande corte verde delimitata ai lati da due nuovi edifici a L adibiti a veri e propri musei. Se da una parte questi musei costituiscono i limiti della corte, dall’altra rappresentano le quinte sceniche di aree completamenti differenti. Il museo adiacente al canale si affaccia su una grande piazza pavimentata dove troneggia l’edificio di archeologia industriale più simile ad una basilica e che accoglie i visitatori che arrivano tramite la navetta costiera; l’altro invece guarda verso il centro di ricerca e le residenze universitarie legati tra loro da un grande campo lungo completamente verde. A concludere la composizione ho pensato ad una torre belvedere dalla pianta circolare che potesse assorbire tutte le diverse direzioni e che si trova proprio in asse con il terzo edificio di archeologia industriale e a contatto con l’acqua. Per quanto riguarda l’organizzazione interna dei musei ho scelto di proporre due sezioni dello stesso museo con caratteristiche ben distinte. Il primo museo riguarda la storia della civiltà marinara di Ravenna ed è caratterizzato da ambienti conclusi lungo un percorso prestabilito che segue un criterio cronologico, il secondo invece presenta una pianta abbastanza libera dove i visitatori possono scegliere come e su cosa indirizzare la propria visita. Questa decisione è nata dalla volontà di soddisfare le esigenze di tutta l’utenza, pensando soprattutto alla necessità di coinvolgere persone giovani e bambini. Il centro di ricerca è organizzato planimetrica mente come una grande C, dove le due ali più lunghe ospitano i laboratori mentre l’ala più corta rappresenta l’ingresso sottolineato da un portico aggettante sulla corte. Simmetricamente si trovano i sette volumi delle residenze. Ognuno di questi può alloggiare sei studenti in altrettanti monolocali con servizi annessi, e presenta al piano terra aree di relax e sale lettura comuni. La torre belvedere invece riveste un ruolo più commerciale ospitando negozi, uffici per le varie associazioni legate al mare e un ristorante su più livelli, fino ad arrivare alla lanterna, che, come il faro per le navi, diventa un vero segno di riconoscimento e di orientamento dell’area sia dal mare che dalla città.
Resumo:
La risorsa acqua in zone semi-aride è sottoposta a un'estrema variabilità climatica nello spazio e nel tempo. La gestione della risorsa acqua è quindi soggetta a un insieme di sfide quando i vincoli naturali vengono uniti agli effetti indotti da attività umana come per esempio l'aumento dello sfruttamento dell'acqua di sottosuolo, cambiamento dell'uso del suolo e presenza di infrastruttura mista. Si spera che il cambiamento climatico e l'attività risultanti dallo sviluppo economico, a corto termine aumentino la pressione su un sistema ormai sensibile. Se pianificato e gestito correttamente, lo stoccaggio dell'acqua, nelle sue varie forme, funge come un meccanismo di controllo della variabilità climatica e può potenziare la capacità adattiva. Lo uadi Merguellil è un corso d'acqua a carattere non perenne al centro della Tunisia, più specificamente a est della città di Kairouan. Il Merguellil drena la pioggia sulla dorsale Tunisina insieme al uadi Zeroud e Nebhana, ed è tra i principali fiumi che scorre sulla piana di Kairouan. Lo stoccaggio dell'acqua nel bacino assume diverse forme come i laghi collinari, i terrazzi, acqua di sottosuolo e una diga. Alcune delle opzioni per lo stoccaggio dell'acqua sono state costruite per preservare la risorsa acqua, mantenere la popolazione rurale e mantenere l'equità tra le zone a monte ed a valle ma solitamente non è mai stata fatta un'analisi comprensiva dei "trade-offs" coinvolti in tali sviluppi. Anche se la ricerca è sviluppata in questa zona, finora nessuna analisi ha cercato di combinare le dinamiche del sistema idrologico con scenari gestionali. L'analisi di scenari gestionali consente ai decisori di valutare delle alternative di pianificazione e può incrementare positivamente la loro abilità di creare delle politiche che si basino sulle necessità fisiche ma anche sociali di un particolare sistema. Questo lavoro è un primo passo verso un Sistema di Gestione Integrata della Risorsa Idrica (inglese: IWMR) capace di mettere in prospettiva strategie future su diverse scale. L'uso di uno strumento metodologico illustra le sfide associate nell'affrontare questo compito. In questo caso, un modello WEAP (Water Evaluation and Planning System) è stato sviluppato in collaborazione con partners Tunisini in modo da integrare le conoscenze su processi fisici e valutare diverse tendenze come l'aumento dell'irrigazione o il cambio di alcuni aspetti climatici. Lo strumento ora è disponibile ai ricercatori locali dove potrà essere sviluppato ulteriormente a fine di indirizzare domande più specifiche. Questo lavoro focalizza lo stoccaggio dell'acqua per poter evidenziare le interazioni dinamiche tra le diverse opzioni di stoccaggio nella zona di studio e valutare i "trade-offs" tra di esse. I risultati iniziali dimostrati in questo lavoro sono: - Se lo sfruttamento degli acquiferi fosse ristretto ai livelli delle loro ricarica, la domanda d'acqua dei diversi utilizzatori non sarebbe soddisfatta al 25% dei livelli di consumo attuale. - La tendenza di incremento dell'agricoltura di irrigazione crea un impatto più accentuato nelle risorse di sottosuolo di quello creato da un'ipotetica riduzione della piovosità all'85% - L'aumento del numero di laghi collinari riduce la quantità d'acqua che arriva a valle, allo stesso tempo aumenta la quantità d'acqua "persa" per evaporazione.
Resumo:
La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.
Resumo:
Il presente lavoro di tesi è stato realizzato al fine di valutare la distribuzione geografica ed i livelli ambientali di concentrazione per una serie di metalli (Cr, Cu, Ni, Zn, Mn, Co, V, Ba, Pb, Sr e Hg) presenti all’interno dei sedimenti della laguna costiera Pialassa Baiona, situata nei pressi del porto e dell’area industriale di Ravenna. L’area di studio considerata rappresenta un esempio di ambiente di transizione, dove i fattori fisici e chimici variano su scala spaziale e temporale e dove le attività antropiche, recenti e non, hanno provocato impatti significativi sullo stato di qualità dei sedimenti, delle acque e degli ecosistemi. Lo studio è stato progettato seguendo un disegno di campionamento ortogonale, che tiene conto del gradiente naturale terra-mare, tipico delle zone di transizione, e del gradiente antropico, legato alla vicinanza con l’area industriale. Sulla base di questo disegno sono state campionate 4 aree differenti e per ciascuna area sono stati scelti casualmente tre siti. La caratterizzazione dei sedimenti dal punto di vista chimico è stata effettuata determinando la frazione labile e quindi più biodisponibile dei metalli, oggetto del presente studio, per mezzo di una tecnica di estrazione parziale con HCl 1 M. Le concentrazioni biodisponibili ottenute sono state poi confrontate con il contenuto totale dei metalli, determinato mediante digestione totale al micronde. I sedimenti sono stati inoltre caratterizzati dal punto di vista granulometrico e del contenuto in sostanza organica (Loss on Ignition, LOI%). I risultati ottenuti dalle analisi chimiche sono stati confrontati con i valori tipi di fondo naturale del Mar Adriatico e con i valori guida di riferimento nazionale (SQA-MA) ed internazionale (ERL, ERM, TEL e PEL), al fine di valutare lo stato di qualità dei sedimenti della Baiona e di effettuare uno screening per individuare eventuali situazioni di rischio per gli organismi bentonici. I risultati ottenuti sono stati poi elaborati statisticamente con un analisi della varianza (ANOVA) con lo scopo di valutare la variabilità spaziale dei metalli nei campioni analizzati e la presenza di eventuali differenze significative.
Resumo:
Da 25 anni la letteratura scientifica internazionale riporta studi su varie specie di microcrostacei copepodi ciclopoidi dei generi Macrocyclops, Megacyclops e Mesocyclops predatori di larve di 1a e 2a età di culicidi. Si tratta di prove di predazione in laboratorio e in pieno campo, in diverse aree del pianeta nessuna delle quali riguarda l’Italia o il resto d’Europa, contro principalmente Aedes aegypti (L.), Ae. albopictus (Skuse) e altre specie del genere Anopheles e Culex. L’allevamento massale di copepodi ciclopoidi appare praticabile e questo, assieme alle buone prestazioni predatorie, rende tali ausiliari candidati assai interessanti contro le due principali specie di zanzare, Culex pipiens L. e Ae. albpopictus, che nelle aree urbane e periurbane italiane riescono a sfruttare raccolte d’acqua artificiali di volume variabile e a regime idrico periodico o permanente. Pertanto lo scopo dello studio è stato quello di arrivare a selezionare una o più specie di copepodi candidati per la lotta biologica e valutarne la possibilità applicativa nell’ambito dei programmi di controllo delle zanzare nocive dell’ambiente urbano. L’argomento del tutto nuovo per il nostro paese, è stato sviluppato attraverso varie fasi ciascuna delle quali propedeutica a quella successiva. •Indagine faunistica nell’area di pianura e costiera sulle specie di ciclopoidi associate a varie tipologie di raccolte d’acqua naturali e artificiali (fossi, scoline, canali, risaie e pozze temporanee). I campionamenti sono stati condotti con l’obiettivo di ottenere le specie di maggiori dimensioni (≥1 mm) in ristagni con diverse caratteristiche in termini di qualità dell’acqua e complessità biocenotica. •Prove preliminari di predazione in laboratorio con alcune specie rinvenute negli ambienti campionati, nei confronti delle larve di Ae. albopictus e Cx. pipiens. Le prestazioni di predazione sono state testate sottoponendo ai copepodi larve giovani di zanzare provenienti da allevamento e calcolato il numero giornaliero di larve attaccate. •Implementazione di un allevamento pilota della specie valutata più interessante, Macrocyclops albidus (Jurine) (Cyclopoida, Cyclopidae, Eucyclopinae), per i risultati ottenuti in laboratorio in termini di numero di larve predate/giorno e per le caratteristiche biologiche confacenti agli ambienti potenzialmente adatti ai lanci. Questa parte della ricerca è stata guidata dalla finalità di mettere a punto una tecnica di allevamento in scala in modo da disporre di stock di copepodi dalla primavera, nonchè da criteri di economicità nell’impianto e nella sua gestione. •Prove di efficacia in condizioni di semicampo e di campo in raccolte d’acqua normalmente colonizzate dai culicidi in ambito urbano: bidoni per lo stoccaggio di acqua per l’irrigazione degli orti e tombini stradali. In questo caso l’obiettivo principale è stato quello di ottenere dati sull’efficienza del controllo di M. albidus nei confronti della popolazione culicidica selvatica e sulla capacità del copepode di colonizzare stabilmente tali tipologie di focolai larvali. Risultati e conclusioni Indagine faunistica e prove di predazione in laboratorio L’indagine faunistica condotta nell’area costiera ferrarese, in quella ravennate e della pianura bolognese ha portato al rinvenimento di varie specie di ciclopoidi mantenuti in laboratorio per la conduzione delle prove di predazione. Le specie testate sono state: Acanthocyclops robustus (G. O. Sars), Macrocyclops albidus (Jurine), Thermocyclops crassus (Fischer), Megacyclops gigas (Claus). La scelta delle specie da testare è stata basata sulla loro abbondanza e frequenza di ritrovamento nei campionamenti nonché sulle loro dimensioni. Ciascuna prova è stata condotta sottoponendo a un singolo copepode, oppure a gruppi di 3 e di 5 esemplari, 50 larve di 1a età all’interno di contenitori cilindrici in plastica con 40 ml di acqua di acquedotto declorata e una piccola quantità di cibo per le larve di zanzara. Ciascuna combinazione “copepode/i + larve di Ae. albopictus”, è stata replicata 3-4 volte, e confrontata con un testimone (50 larve di Ae. albopictus senza copepodi). A 24 e 48 ore sono state registrate le larve sopravvissute. Soltanto per M. albidus il test di predazione è stato condotto anche verso Cx. pipiens. Messa a punto della tecnica di allevamento La ricerca è proseguita concentrando l’interesse su M. albidus, che oltre ad aver mostrato la capacità di predare a 24 ore quasi 30 larve di Ae. albopictus e di Cx. pipiens, dalla bibliografia risulta tollerare ampi valori di temperatura, di pH e alte concentrazioni di vari inquinanti. Dalla ricerca bibliografica è risultato che i ciclopoidi sono facilmente allevabili in contenitori di varia dimensione e foggia somministrando agli stadi di preadulto alghe unicellulari (Chlorella, Chilomonas), protozoi ciliati (Paramecium, Euplotes), rotiferi e cladoceri. Ciò presuppone colture e allevamenti in purezza di tali microrganismi mantenuti in parallelo, da utilizzare come inoculo e da aggiungere periodicamente nell’acqua di allevamento dei ciclopoidi. Nel caso di utilizzo di protozoi ciliati, occorre garantirne lo sviluppo che avviene a carico di flora batterica spontanea a sua volta cresciuta su di un substrato organico quale latte, cariossidi bollite di grano o soia, foglie di lattuga, paglia di riso bollita con cibo secco per pesci, lievito di birra. Per evitare il notevole impegno organizzativo e di manodopera nonché il rischio continuo di perdere la purezza della colonia degli organismi da utilizzare come cibo, le prove comparative di allevamento hanno portato ad un protocollo semplice ed sufficientemente efficiente in termini di copepodi ottenibili. Il sistema messo a punto si basa sull’utilizzo di una popolazione mista di ciliati e rotiferi, mantenuti nell'acqua di allevamento dei copepodi mediante la somministrazione periodica di cibo standard e pronto all’uso costituito da cibo secco per gatti. Prova di efficacia in bidoni da 220 l di capacità La predazione è stata studiata nel biennio 2007-2008 in bidoni da 220 l di capacità inoculati una sola volta in aprile 2007 con 100 e 500 esemplari di M. albidus/bidone e disposti all’aperto per la libera ovideposizione della popolazione culicidica selvatica. L’infestazione preimmaginale culicidica veniva campionata ogni due settimane fino ad ottobre, mediante un retino immanicato a maglia fitta e confrontata con quella dei bidoni testimone (senza copepodi). Nel 2007 il tasso di riduzione medio delle infestazioni di Ae. albopictus nei bidoni con copepodi, rispetto al testimone, è del 99,90% e del 100,00% rispettivamente alle dosi iniziali di inoculo di 100 e 500 copepodi/bidone; per Cx. pipiens L. tale percentuale media è risultata di 88,69% e di 84,65%. Similmente, nel 2008 si è osservato ad entrambe le dosi iniziali di inoculo una riduzione di Ae. albopictus del 100,00% e di Cx. pipiens del 73,3%. La dose di inoculo di 100 copepodi per contenitore è risultata sufficiente a garantire un rapido incremento numerico della popolazione che ha raggiunto la massima densità in agosto-settembre e un eccellente controllo delle popolazioni di Ae. albopictus. Prova di efficacia in campo in serbatoi per l’acqua irrigua degli orti La prova è stata condotta a partire dalla metà di agosto 2008 interessando 15 serbatoi di varia foggia e capacità, variabile tra 200 e 600 l, utilizzati per stoccare acqua orti famigliari nel comune di Crevalcore (BO). Ai proprietari dei serbatoi era chiesto di gestire il prelievo dell’acqua e i rifornimenti come da abitudine con l’unica raccomandazione di non svuotarli mai completamente. In 8 contenitori sono stati immessi 100 esemplari di M.albidus e una compressa larvicida a base di Bacillus thuringiensis var. israelensis (B.t.i.); nei restanti 7 è stata soltanto immessa la compressa di B.t.i.. Il campionamento larvale è stato settimanale fino agli inizi di ottobre. Dopo l’introduzione in tutti i serbatoi sono stati ritrovati esemplari di copepodi, nonostante il volume di acqua misurato settimanalmente sia variato da pochi litri, in qualche bidone, fino a valori della massima capacità, per effetto del prelievo e dell’apporto dell’acqua da parte dei gestori degli orti. In post-trattamento sono state osservate differenze significative tra le densità larvali nelle due tesi solo al 22 settembre per Ae.albopictus Tuttavia in termini percentuali la riduzione media di larve di 3a-4a età e pupe nei bidoni con copepodi, rispetto al testimone, è stata de 95,86% per Ae. albopictus e del 73,30% per Cx. pipiens. Prova di efficacia in tombini stradali Sono state condotte due prove in due differenti località, interessando 20 tombini (Marano di Castenaso in provincia di Bologna nel 2007) e 145 tombini (San Carlo in provincia di Ferrara nel 2008), quest’ultimi sottoposti a spurgo e pulizia completa nei precedenti 6 mesi l’inizio della prova. L’introduzione dei copepodi nei tombini è stata fatta all’inizio di luglio nella prova di Marano di Castenaso e alla fine di aprile e giugno in quelli di San Carlo, a dosi di 100 e 50 copepodi/tombino. Prima dell’introduzione dei copepodi e successivamente ogni 2 settimane per due mesi, in ogni tombino veniva campionata la presenza culicidica e dei copepodi con dipper immanicato. Nel 2007 dopo l’introduzione dei copepodi e per tutto il periodo di studio, mediamente soltanto nel 77% dei tombini i copepodi sono sopravvissuti. Nel periodo di prova le precipitazioni sono state scarse e la causa della rarefazione dei copepodi fino alla loro scomparsa in parte dei tombini è pertanto da ricercare non nell’eventuale dilavamento da parte della pioggia, quanto dalle caratteristiche chimico-fisiche dell’acqua. Tra queste innanzitutto la concentrazione di ossigeno che è sempre stata molto bassa (0÷1,03 mg/l) per tutta la durata del periodo di studio. Inoltre, a questo fattore probabilmente è da aggiungere l’accumulo, a concentrazioni tossiche per M. albidus, di composti organici e chimici dalla degradazione e fermentazione dell’abbondante materiale vegetale (soprattutto foglie) in condizioni di ipossia o anossia. Nel 2008, dopo il primo inoculo di M. albidus la percentuale di tombini che al campionamento presentano copepodi decresce in modo brusco fino a raggiungere il 6% a 2 mesi dall’introduzione dei copepodi. Dopo 40 giorni dalla seconda introduzione, la percentuale di tombini con copepodi è del 6,7%. Nell’esperienza 2008 è le intense precipitazioni hanno avuto probabilmente un ruolo determinante sul mantenimento dei copepodi nei tombini. Nel periodo della prova infatti le piogge sono state frequenti con rovesci in varie occasioni di forte intensità per un totale di 342 mm. Sotto questi livelli di pioggia i tombini sono stati sottoposti a un continuo e probabilmente completo dilavamento che potrebbe aver impedito la colonizzazione stabile dei copepodi. Tuttavia non si osservano influenze significative della pioggia nella riduzione percentuale dei tombini colonizzati da copepodi e ciò fa propendere all’ipotesi che assieme alla pioggia siano anche le caratteristiche fisico-chimiche dell’acqua a impedire una colonizzazione stabile da parte di M. albidus. In definitiva perciò si è dimostrato che i tombini stradali sono ambienti ostili per la sopravvivenza di M. albidus, anche se, dove il ciclopoide si è stabilito permanentemente, ha dimostrato un certo impatto nei confronti di Ae. albopictus e di Cx. pipiens, che tuttavia è risultato non statisticamente significativo all’analisi della varianza. Nei confronti delle larve di Culex pipiens il copepode non permette livelli di controllo soddisfacente, confermando i dati bibliografici. Nei confronti invece di Ae. albopictus la predazione raggiunge buoni livelli; tuttavia ciò non è compensato dalla percentuale molto alta di tombini che, dopo periodi di pioggia copiosa o singoli episodi temporaleschi o per le condizioni di anossia rimangono senza i copepodi. Ciò costringerebbe a ripetute introduzioni di copepodi i cui costi attualmente non sono inferiori a quelli per trattamenti con prodotti larvicidi. In conclusione la ricerca ha portato a considerare Macrocyclops albidus un interessante ausiliario applicabile anche nelle realtà urbane del nostro paese nell’ambito di programmi integrati di contrasto alle infestazioni di Aedes albopictus. Tuttavia il suo utilizzo non si presta a tutti i focolai larvali ma soltanto a raccolte di acqua artificiali di un certo volume come i bidoni utilizzati per stoccare acqua da impiegare per l’orto e il giardino familiare nelle situazioni in cui non è garantita la copertura ermetica, lo svuotamento completo settimanale o l’utilizzo di sostanze ad azione larvozanzaricida.
Resumo:
L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.
Resumo:
Il tennis è uno sport molto diffuso che negli ultimi trent’anni ha subito molti cambiamenti. Con l’avvento di nuovi materiali più leggeri e maneggevoli la velocità della palla è aumentata notevolmente, rendendo così necessario una modifica a livello tecnico dei colpi fondamentali. Dalla ricerca bibliografica sono emerse interessanti indicazioni su angoli e posizioni corporee ideali da mantenere durante le varie fasi dei colpi, confrontando i giocatori di altissimo livello. Non vi sono invece indicazioni per i maestri di tennis su quali siano i parametri più importanti da allenare a seconda del livello di gioco del proprio atleta. Lo scopo di questa tesi è quello di individuare quali siano le variabili tecniche che influenzano i colpi del diritto e del servizio confrontando atleti di genere differente, giocatori di livello di gioco diverso (esperti, intermedi, principianti) e dopo un anno di attività programmata. Confrontando giocatori adulti di genere diverso, è emerso che le principali differenze sono legate alle variabili di prestazione (velocità della palla e della racchetta) per entrambi i colpi. Questi dati sono simili a quelli riscontrati nel test del lancio della palla, un gesto non influenzato dalla tecnica del colpo. Le differenze tecniche di genere sono poco rilevanti ed attribuibili alla diversa interpretazione dei soggetti. Nel confronto di atleti di vario livello di gioco le variabili di prestazione presentano evidenti differenze, che possono essere messe in relazione con alcune differenze tecniche rilevate nei gesti specifici. Nel servizio i principianti tendono a direzionare l’arto superiore dominante verso la zona bersaglio, abducendo maggiormente la spalla ed avendo il centro della racchetta più a destra rispetto al polso. Inoltre, effettuano un caricamento minore degli arti inferiori, del tronco e del gomito. Per quanto riguarda il diritto si possono evidenziare queste differenze: l’arto superiore è sempre maggiormente esteso per il gruppo dei principianti; il tronco, nei giocatori più abili viene utilizzato in maniera più marcata, durante la fase di caricamento, in movimenti di torsione e di inclinazione laterale. Gli altri due gruppi hanno maggior difficoltà nell’eseguire queste azioni preparatorie, in particolare gli atleti principianti. Dopo un anno di attività programmata sono stati evidenziati miglioramenti prestativi. Anche dal punto di vista tecnico sono state notate delle differenze che possono spiegare il miglioramento della performance nei colpi. Nel servizio l’arto superiore si estende maggiormente per colpire la palla più in alto possibile. Nel diritto sono da sottolineare soprattutto i miglioramenti dei movimenti del tronco in torsione ed in inclinazione laterale. Quindi l’atleta si avvicina progressivamente ad un’esecuzione tecnica corretta. In conclusione, dal punto di vista tecnico non sono state rilevate grosse differenze tra i due generi che possano spiegare le differenze di performance. Perciò questa è legata più ad un fattore di forza che dovrà essere allenata con un programma specifico. Nel confronto fra i vari livelli di gioco e gli effetti di un anno di pratica si possono individuare variabili tecniche che mostrano differenze significative tra i gruppi sperimentali. Gli evoluti utilizzano tutto il corpo per effettuare dei colpi più potenti, utilizzando in maniera tecnicamente più valida gli arti inferiori, il tronco e l’arto superiore. I principianti utilizzano prevalentemente l’arto superiore con contributi meno evidenti degli altri segmenti. Dopo un anno di attività i soggetti esaminati hanno dimostrato di saper utilizzare meglio il tronco e l’arto superiore e ciò può spiegare il miglioramento della performance. Si può ipotizzare che, per il corretto utilizzo degli arti inferiori, sia necessario un tempo più lungo di apprendimento oppure un allenamento più specifico.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
La forte crescita nella pescicoltura ha portato ad una significativa pressione ambientale di origine antropica nei sistemi costieri. Il bivalve locale Scrobicularia plana è stato usato come bioindicatore per valutare la qualità ambientale di un ecosistema affetto da scarichi di acque residuali di una piscifattoria nel braccio di mare Rio San Pedro (Spagna sud-occidentale). I bivalvi sono stati raccolti nei sedimenti intertidali nell'ottobre del 2010 da cinque siti del braccio di mare, seguendo un gradiente di inquinamento decrescente dall'effluente al sito di controllo. Per valutare l'esposizione e l'effetto di contaminanti legati alle acque residuali delle piscifattorie è stata selezionata una batteria di biomarker. Sono state misurate nei tessuti delle ghiandole digestive dei bivalvi: l'attività di enzimi del sistema di detossificazione della Fase I (etossiresorufina-O-deetilasi, EROD e dibenzilfluoresceina, DBF) l'attività di un enzima del sistema di detossificazione di Fase II (glutatione S-transferasi, GST), l'attività di enzimi antiossidanti (glutatione perossidasi, GPX e glutatione reduttasi, GR) e parametri di stress ossidativo (perossidazione lipidica, LPO, e danno al DNA). In parallelo sono state misurate in situ, nelle aree di studio, temperatura, pH, salinità e ossigeno disciolto nelle acque superficiali; nelle acque interstiziali sono stati misurati gli stessi parametri con l'aggiunta del potenziale redox. Sono state trovate differenze significative (p<0,05) tra siti di impatto e sito di controllo per quanto riguarda l'attività di EROD e GR, LPO e danno al DNA; è stato osservato un chiaro gradiente di stress riconducibile alla contaminazione, con alte attività di questi biomarker nell'area di scarico delle acque residuali della pescicoltura e livelli più bassi nel sito di controllo. È stata trovata inoltre una correlazione negativa significativa (p<0,01) tra la distanza alla fonte di inquinamento e l’induzione dei biomarker. Sono state analizzate le componenti abiotiche, inserendole inoltre in una mappa georeferenziata a supporto. Ossigeno disciolto, pH, salinità e potenziale redox mostrano valori bassi vicino alla fonte di inquinamento, aumentando man mano che ci si allontana da esso. I dati ottenuti indicano nel loro insieme che lo scarico di acque residuali dalle attività di pescicoltura nel braccio di mare del Rio San Pedro può indurre stress ossidativo negli organismi esposti che può portare ad un'alterazione dello stato di salute degli organismi.