362 resultados para Irigarey, Luce
Resumo:
Questo progetto, maturato in seguito a profonde riflessioni basate sull’analisi e la valutazione della situazione territoriale, è scaturito dalla volontà di fornire una risposta alle carenze funzionali e strutturali di un’area dalle molteplici potenzialità. La fascia costiera di Platamona è stata al centro di progetti di lottizzazione che, invece di tutelare l’aspetto naturalistico e unificare un sistema costiero che si estende per circa otto chilometri, hanno inserito strutture prevalentemente ricettive e turistiche in maniera piuttosto arbitraria e senza tener conto della possibilità di organizzare il progetto d’intervento tramite un apposito strumento urbanistico. Il risultato, un tessuto edilizio disomogeneo e disorganizzato, non contribuisce certo alla volontà di attribuire un carattere e un’identità al luogo; anzi, la frequenza di aree in stato di abbandono, che rischiano di diventare discariche a cielo aperto fa quasi pensare ad una situazione di stallo e di incuria sia da parte delle amministrazioni che dei privati. L’idea del progetto deriva da un approccio che ha come obiettivo il massimo sfruttamento delle risorse locali e il minor impatto possibile sul paesaggio e sul sistema attuale. La volontà è quella di riorganizzare e riqualificare gli spazi più significativi, inserendoli all’interno di un sistema di percorsi e connessioni che vogliono unificare e rendere fruibile l’intero sistema costiero fra Platamona e Marina di Sorso. Inoltre è da rivalutare l’aspetto naturalistico del SIC dello Stagno e Ginepreto di Platamona, un’oasi naturalistica che ha tutte le potenzialità per essere posta al centro di un’attività di ricerca e diventare la meta di un turismo mirato. Nel Piano di gestione dello stagno sono già stati previsti e realizzati percorsi su passerelle in legno che si snodano fra i canneti e la pineta limitrofa, con alcune torrette di avvistamento, attualmente posizionate nella zona a sud. Uno degli obiettivi è dunque quello di completare questi percorsi per gran parte del perimetro dello stagno e di stabilire un percorso ciclo-pedonale ad anello che circondi e renda fruibile l’intera area del SIC. A livello di percorsi e connessioni, oltre alla nuova pista ciclabile che correrà parallelamente alla SP 81, si cercherà di fornire nuovi collegamenti anche all’ambito della spiaggia. L’idea è di costruire una passeggiata sul fronte mare che si articoli con leggere passerelle in legno fra le dune irregolari. Si snoderebbe dalla rotonda di Platamona fino alla piazza di Marina di Sorso, per una lunghezza di circa otto chilometri. Il suo scopo è di rendere fruibile l’intera fascia di spiaggia in modo da evitare un eccessivo calpestio del sistema dunario, che purtroppo risente della forte presenza antropica dei mesi estivi. Nel ripensare questi collegamenti e percorsi, si rende necessaria la creazione di aree di sosta attrezzate che si presentano con una certa periodicità, dettata dai pettini e dalle discese a mare. Vi saranno punti di sosta ombreggiati con alberature, aiuole, sedute, fontane e giochi per bambini. Diventa dunque prioritario il fatto di rendere evidente il concetto di unitarietà del sistema costiero in questione, rendendolo riconoscibile tramite l’organizzazione di spazi, episodi e percorsi. Infine il tentativo che riguarda nello specifico il Lido Iride, è quello relativo al suo recupero. L’intento è di restaurarlo e destinarlo a nuove funzioni ricreative-culturali. La struttura principale è mantenuta invariata, soprattutto le stecche che costituivano le cabine sulla spiaggia (elementi alquanto evocativi e radicati nella memoria del luogo). Il complesso sarà riorganizzato in previsione di ospitare workshop e corsi formativi riguardanti la cultura del mare e della salvaguardia dell’ambiente. Molto attuale e sempre più emergente anche in Sardegna risulta l’archeologia subacquea, a cui sono già state dedicate apposite strutture nelle zone di Cagliari e di Orosei. Dunque si riadatteranno le cabine con lo scopo di farle divenire alloggi temporanei per coloro che seguiranno tali corsi, mentre gli altri edifici del complesso fungeranno da supporto per delle lezioni all’aperto (l’arena e la piscina) e per il ristoro o l’allestimento di spazi espositivi (l’edificio centrale del lido). A causa della posizione del complesso balneare (a ridosso della spiaggia) si presuppone che il suo utilizzo sarà prevalentemente stagionale; perciò si è pensato di fornire una struttura di supporto e d’ausilio, la cui fruizione sia auspicabile anche nei mesi invernali: il Nuovo Centro Studi di Platamona. Questo nuovo complesso consiste in una struttura dotata di laboratori, aule conferenze, alloggi e ristorante. Si attesterà sul fronte mare, seguendo la direttrice del nuovo camminamento e innalzandosi su piattaforme e palafitte per non essere eccessivamente invasivo sul sistema dunario. Consisterà in due edifici di testata alti rispettivamente tre e quattro piani, ed entrambi avranno la peculiarità di avere il basamento aperto, attraversato dall’asse della passeggiata sul mare. L’edificio a tre piani ospiterà i laboratori, l’altro il ristorante. Dietro l’edificio dei laboratori si svilupperà una corte porticata che permetterà di giungere alla sala conferenza. Nella parte retrostante i due edifici di testata saranno distribuiti delle stecche di alloggi su palafitte immerse nel verde, caratterizzate da coperture con volte a botte. Lo stile architettonico del nuovo complesso si rifà all’architettura mediterranea, che s’identifica tramite l’utilizzo di basamenti e piccole aperture in facciata, l’uso di pietre e materiali da costruzioni locali, le bianche superfici che riflettono la luce e il forte segno architettonico dei muri che marcano il terreno seguendone l’orografia fino a diventare un tutt’uno.
Resumo:
Questa tesi di laurea nasce da una collaborazione con il Centro Studi Vitruviani di Fano, un’associazione nata il 30 Settembre 2010 nella mia città. Le note vicende riguardanti la Basilica vitruviana di Fano fanno della città adriatica il luogo più autorevole per accogliere un Centro Studi Internazionale dedicato all’opera di Vitruvio. Questa associazione è nata come contenitore di riferimento per eventi e iniziative legate al mondo della classicità intesa come momento storico, ma anche come più ampio fenomeno non solo artistico che interessa trasversalmente tutta la cultura occidentale. La creazione di un’istituzione culturale, di fondazione pubblico-privata, con l'obiettivo di porsi a riferimento internazionale per il proprio ambito di ricerca, è notizia comunque rilevante in un periodo in cui lo Stato vara l’articolo 7 comma 22 di una legge che ribadisce la fine dei finanziamenti agli enti, agli istituti, e alle fondazioni culturali. Il Centro Studi Vitruviani dovrà diventare presto sede di momenti scientifici alta, borse di studio, occasioni divulgative, mostre, iniziative didattiche. L’alto livello scientifico mi si è presentato subito chiaro durante questi mesi di collaborazione con il Centro, quando ho avuto l’occasione di incontrare e conoscere e contattare personalità quali i Professori Salvatore Settis, Pierre Gros, Howard Burns, Antonio Corso, Antonio Monterroso e Piernicola Pagliara. Attualmente nella mia città il Centro Studi ha una sede non adeguato, non è fruibile al pubblico (per problemi accessi in comune con altri Enti) e non è riconoscibile dall’esterno. L’attuale sede è all’interno del complesso conventuale del S.Agostino. Il Centro Studi mi ha proposto di valutare la possibilità di un ampliamento dell’associazione in questo edificio storico. Nel mio progetto è stato previsto un processo di acquisizione totale del complesso, con un ripensamento dell’accesso riconoscibile dall’esterno, e un progetto di rifunzionalizzazione degli spazi interni. È stata inserita un’aula per la presentazione di libri, incontri e congressi, mostre ed esposizioni, pubblicazioni culturali e specialistiche. Il fatto interessante di questa sede è che l’edificio vive sulle rovine di un tempio romano, già visitabile e inserite nelle visite della città sotterranea. Fano, infatti, è una città di mare, di luce e nello stesso tempo di architetture romane sotterranee. L’identità culturale e artistica della città è incisa nelle pieghe dei suoi resti archeologici. Le mura augustee fanesi costituiscono il tratto più lungo di mura romane conservate nelle città medio-adriatiche. Degli originari 1750 metri, ne rimangono circa 550. Di grande suggestione sono le imponenti strutture murarie rinvenute sotto il complesso del Sant’Agostino che hanno stimolato per secoli la fantasia e suscitato l'interesse di studiosi ed appassionati. Dopo la prima proposta il Centro Studi Vitruviani mi ha lanciato una sfida interessante: l’allargamento dell’area di progetto provando a ripensare ad una musealizzazione delle rovine del teatro romano dell’area adiacente. Nel 2001 l’importante rinvenimento archeologico dell’edificio teatrale ha donato ulteriori informazioni alle ricostruzione di una pianta archeologica della città romana. Questa rovine tutte da scoprire e da ripensare mi si sono presentate come un’occasione unica per il mio progetto di tesi ed, inoltre, estremamente attuali. Nonostante siano passati dieci anni dal rinvenimento del teatro, dell’area mancava un rilievo planimetrico aggiornato, un’ipotesi ricostruttiva delle strutture. Io con questo lavoro di Tesi provo a colmare queste mancanze. La cosa che ritengo più grave è la mancanca di un progetto di musealizzazione per inserire la rovina nelle visite della Fano romana sotteranea. Spero con questa tesi di aver donato materiale e suggestioni alla mia città, per far comprendere la potenzialità dell’area archeologica. Per affrontare questo progetto di Tesi sono risultate fondamentali tre esperienze maturate durante il mio percorso formativo: prima fra tutte la partecipazione nel 2009 al Seminario Internazionale di Museografia di Villa Adriana Premio di Archeologia e Architettura “Giambattista Piranesi” organizzato nella nostra facoltà dal Prof. Arch. Sandro Pittini. A noi studenti è stata data la possibilità di esercitarci in un progetto di installazioni rigorosamente temporanee all’interno del sedime archeologico di Villa Adriana, grande paradigma per l’architettura antica così come per l’architettura contemporanea. Nel corso del quarto anno della facoltà di Architettura ho avuto l’occasione di seguire il corso di Laboratorio di Restauro con i professori Emanuele Fidone e Bruno Messina. Il laboratorio aveva come obiettivo principale quello di sviluppare un approccio progettuale verso la preesistenza storica che vede l'inserimento del nuovo sull'antico non come un problema di opposizione o di imitazione, ma come fertile terreno di confronto creativo. Durante il quinto anno, ho scelto come percorso conclusivo universitario il Laboratorio di Sintesi Finale L’architettura del Museo, avendo già in mente un progetto di tesi che si rivolgesse ad un esercizio teorico di progettazione di un vero e proprio polo culturale. Il percorso intrapreso con il Professor Francesco Saverio Fera mi ha fatto comprendere come l’architettura dell'edificio collettivo, o più semplicemente dell’edificio pubblico si lega indissolubilmente alla vita civile e al suo sviluppo. È per questo che nei primi capitoli di questa Tesi ho cercato di restituire una seria e attenta analisi urbana della mia città. Nel progetto di Tesi prevedo uno spostamento dell’attuale Sezione Archeologica del Museo Civico di Fano nell’area di progetto. Attualmente la statuaria e le iscrizioni romane sono sistemate in sei piccole sale al piano terra del Palazzo Malatestiano: nel portico adiacente sono esposti mosaici e anfore sottoposte all’azione continua di volatili. Anche la Direttrice del Museo, la Dott.ssa Raffaella Pozzi è convinta del necessario e urgente spostamento. Non è possibile lasciare la sezione archeologica della città all’interno degli insufficienti spazi del Palazzo Malatestiano con centinaia di reperti e materiali vari (armi e uniformi, pesi e misure, ceramiche, staturia, marmi, anfore e arredi) chiusi e ammassati all’interno di inadeguati depositi. Il tutto è stato opportunamente motivato in un capitolo di questa Tesi. Credo fortemente che debbano essere le associazioni quali il CSV assieme al già attivissimo Archeclub di Fano e il Museo Archeologico, i veri punti di riferimento per questa rinascita culturale locale e territoriale, per promuovere studi ed iniziative per la memoria, la tutela e la conservazione delle fabbriche classiche e del locale patrimonio monumentale. Questo lavoro di Tesi vuole essere un esercizio teorico che possa segnare l’inizio di un nuovo periodo culturale per la mia città, già iniziato con l’istituzione del Centro Studi Vitruviani. L’evento folkloristico della Fano dei Cesari, una manifestazione sicuramente importante, non può essere l’unico progetto culturale della città! La “Fano dei Cesari” può continuare ad esistere, ma deve essere accompagnata da grandi idee, grandi mostre ed eventi accademici.
Resumo:
L'obbiettivo della presente tesi curriculare è una lettura di alcuni esami in relazione all'idea di ar-chitettura che la nostra Scuola – la Facoltà di Architettura “Aldo Rossi” – porta avanti: l'architettura come progetto collettivo e unitario nel tempo fondato sui fatti architettonici, ovvero l'architettura come scienza: Noi raccogliamo questa strada dell'architettura come scienza, della formulazione logica dei principi, della meditazione sui fatti architettonici e quindi principalmente sui monumenti e pensiamo di verificarla attraverso una serie di architetti e di opere antiche e moderne che noi scegliamo, su cui operiamo un certo tipo di scelta . Ciò che caratterizza l'architettura come scienza è il metodo progettuale: l'obbiettivo della tesi è pertanto una riflessione sulla teoria della progettazione insegnata nella nostra Scuola – intesa come momento della più generale teoria dell'architettura di Aldo Rossi – ovvero su come essa sia stata seguita per realizzare i progetti presentati. La tesi è così ordinata: una prima parte dedicata alla teoria dell'architettura di Aldo Rossi nella quale vengono indicati i principi, cioè lo scopo che la nostra Scuola di architettura persegue; una seconda parte dedicata alla teoria della progettazione nella quale viene indicato il metodo, cioè lo strumento eminente che la nostra Scuola di architettura utilizza; infine sono presentati i progetti –Laboratorio di sintesi finale: l'architettura del museo; Disegno dell'architettura II; Laboratorio di progettazione architettonica IV; – scelti per mettere in luce le distinte parti di cui il metodo consiste.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Attraverso svariate prove tecnologiche, pratiche ed ottiche, si è posta la base per lo sviluppo di un sistema di misurazione delle deformazioni su un albero navale in materiale composito attraverso sensori ottici. L'attività ha messo in luce diverse problematiche relative all'inglobamento delle fibre ottiche nel materiale composito e molte altre attinenti la tecnologia basata su Reticoli di Bragg fotoincisi sulla fibra ottica.
Resumo:
E’ stimato che circa 4.000 sostanze diverse vengano utilizzate nella medicina umana, fra cui soprattutto analgesici, antinfiammatori, contraccettivi, antibiotici, beta-bloccanti, regolatori lipidici, composti neuroattivi e molti altri. Inoltre un elevato numero di farmaci, spesso simili a quelli umani tra cui antibiotici e antinfiammatori, viene usato nella medicina veterinaria. L’uso può essere diverso nei diversi Paesi ma farmaci quali l’ibuprofene, la carbamazepina, o i beta-bloccanti vengono consumati in quantità di tonnellate per anno. Le analisi chimiche hanno riscontrato la presenza dei residui dei farmaci nelle acque reflue dai depuratori, nei fiumi e nei laghi in maniera ubiquitaria a concentrazioni nell’intervallo di 10-1000 ng/L. Come ci si aspetta, i farmaci sono molto concentrati nelle acque reflue degli ospedali, tuttavia la percentuale di farmaci provenienti dagli ospedali è stata valutata complessivamente non oltre il 20% del quantitativo totale. L’origine preponderante dei farmaci proviene dall’uso domiciliare, per cui gli impianti municipali di raccolta delle acqua di rifiuto sono la maggiore via di ingresso in ambiente. Una volta ingeriti e metabolizzati, i farmaci vengono escreti via urine o feci e introdotti nella rete fognaria fino alle sedi di trattamento delle acque. Altra sorgente è rappresentata dalle manifatture dei farmaci, dalle quali possono derivare scarichi illegali o accidentali. Una sorgente importante di farmaci, soprattutto di antibiotici, è rappresentata dagli allevamenti animali, sia in ambienti interni che al pascolo, e dall’acquacoltura. Nel primo caso in particolare vengono prodotti e raccolti una grande quantità di rifiuti, che di solito sono accumulati temporaneamente e poi dispersi sui suoli agricoli. I farmaci presenti nei suoli possono essere trasportati alle acque sotterranee, o dilavati a livello superficiale contribuendo ad aumentare il livello di farmaci nei corsi d’acqua oppure una volta sciolti nell’acqua interstiziale possono essere assunti dai vegetali. Gli impianti di depurazione attuali non sono pianificati per eliminare microinquinanti altamente polari come i farmaci, e in relazione alle differenti molecole la eliminazione può essere in percentuale diversa, spesso anche molto bassa. I test ecotossicologici di tipo acuto utilizzati per molto tempo per valutare la tossicità dei farmaci ambientali hanno riportato effetti soltanto a concentrazioni superiori a quelle ambientali; nei 2-3 anni più recenti tuttavia è stato messo in luce come, già a basse concentrazioni, alcuni farmaci modifichino le attività riproduttive o il metabolismo di pesci e molluschi. Da qui è nata l’esigenza di studiare quale sia la possibile interazione dei residui dei farmaci con la fauna acquatica a concentrazioni compatibili con quelle ambientali, e valutare il meccanismo d’azione sfruttando per quanto possibile le conoscenze disponibili per i farmaci messi in commercio. I farmaci infatti sono composti disegnati per avere effetti terapeutici attraverso specifici meccanismi d’azione. Negli organismi non bersaglio che risultano esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero però indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione. Inoltre, i farmaci manifestano effetti collaterali, in genere se usati a dosi elevate o per lungo tempo, e molto spesso si tratta di effetti ossidanti. E’ possibile che tali effetti siano indotti dai farmaci ambientali nei molluschi o nei pesci, magari a basse dosi se questi animali sono più sensibili dell’uomo. Lo scopo di questa tesi è stato quello di valutare nei mitili Mytilus galloprovincialis i potenziali effetti indotti dalla fluoxetina (farmaco antidepressivo), dal propranololo (farmaco β-bloccante), o dalla loro miscela con riferimento a quelli classificati come collaterali nell’uomo. In particolare, è stata studiata l’espressione di geni che codificano per gli enzimi antiossidanti catalasi (CAT), glutatione S transferasi (GST) e superossido dismutasi (SOD), mediatori della risposta allo stress ossidativo. I possibili effetti dei farmaci sono stati valutati dopo esposizione dei mitili Mytilus galloprovincialis per 7 giorni a fluoxetina (FX) e propranololo (PROP) ad un range di concentrazioni che comprendono quelle misurate in ambiente, e alla loro miscela alla concentrazione di 0,3 ng/l, scelta perché rappresentativa delle dosi inferiori dei due farmaci riscontrate in ambiente acquatico. I risultati hanno dimostrato che FX causa una generale diminuzione dell’espressione dei geni CAT, mentre per i geni codificanti per GST e SOD si osservano variazioni significative soltanto ad una concentrazione di FX, 300 e 3 ng/L rispettivamente. La riduzione dei livelli di espressione di CAT non sempre accompagnata dalla significativa variazione dei livelli di espressione di SOD e GST, può indicare che il sistema anti-ossidante non è in grado di adattarsi in modo efficiente all’alterazione indotta dall’esposizione a FX, portando ad un progressivo aumento dei livelli di stress. Per quanto riguarda gli effetti del PROP, i risultati ottenuti mostrano che nei mitili esposti a concentrazioni crescenti del farmaco i geni CAT e SOD risultano progressivamente sovra-espressi rispetto al controllo, anche se in maniera non significativa mentre i livelli di espressione di GST non sono significativamente alterati. I dati ottenuti esponendo i mitili alla miscela dei due farmaci, indicano che FX e PROP possono avere effetti interattivi sulla regolazione dei tre geni coinvolti nella risposta antiossidante. In presenza della miscela si osserva infatti una riduzione significativa dell’espressione del gene CAT, del gene GST mentre non ci sono effetti sul gene SOD. In conclusione, concentrazioni di PROP e FX nell’intervallo di quelle misurate in ambiente possono generare significativi effetti sui geni CAT, GST, e SOD. Come riscontrato nella precedente letteratura, l’attività o l’espressione degli enzimi antiossidanti risente molto dello stato fisiologico dei mitili e della stagionalità, quindi il ruolo degli enzimi antiossidanti come biomarker deve essere interpretato all’interno di batterie più ampie di risposte subletali degli organismi sentinella. Nel laboratorio questi dati sono stati ottenuti in precedenti lavoro di Tesi (Tosarelli, Tesi Magistrale in Biologia Marina, A.A. 2011; Inzolia, Tesi Magistrale in Biologia Marina, A.A. 2011). Le alterazioni ottenute a concentrazioni circa 1.000 volte inferiori rispetto a quelle efficaci nei test ecotossicologici acuti, dimostrano comunque che i farmaci possono avere effetti sugli organismi anche a concentrazioni molto basse come quelle ambientali. In particolare, poiché gli effetti ossidativi sono i più comuni effetti collaterali dei farmaci nell’Uomo che ne assuma elevate quantità o somministrazioni prolungate nel tempo, possiamo affermare che questi hanno luogo anche negli organismi non-target, a concentrazioni basse e dopo soli 7 giorni di esposizione. I dati della tesi non dimostrano che propranololo e fluoxetina hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti.
Resumo:
L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.
Resumo:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.
Resumo:
Oggetto di questa tesi di laurea è la riqualificazione funzionale ed energetica di un'autorimessa per corriere costruita a Forlì nel 1935 dal geom. Alberto Flamigni e di proprietà dell' ATR, Agenzia per la Mobilità della provincia di Forlì-Cesena. Al deposito per corriere sono annessi dei piccoli capanni adibiti a magazzini ed una palazzina per uffici costruita negli anni '50, non facente parte del progetto originale. Oggi l'intero complesso risulta in disuso e la richiesta espressa dall'Amministrazione Comunale di Forlì è quella di adattare il comparto per ospitare funzioni musicali, d'intrattenimento e cultura, pensando anche ad un collegamento col manufatto storico dell'Arena Forlivese; quest'ultima, costruita negli anni '20, è situata ai margini del lotto in esame, risulta di proprietà privata ed oggi versa in condizioni di grave degrado. Uno dei fini del progetto, sul filo conduttore delle richieste dell'Amministrazione, è quello di mantenere l'involucro originale dell'edificio, su cui grava anche un vincolo storico, essendo stato progettato durante il periodo fascista ed avendo forti richiami alle soluzioni architettoniche adottate da Marcello Piacentini. Si è quindi deciso di lavorare al suo interno, al fine di creare dei nuclei indipendenti che ospitano le nuove funzioni di auditorium, mediateca, spazio espositivo, sale prova, camerini, mantenendo invece intatto il perimetro in mattoni facciavista con basamento in travertino. Il fronte esposto a sud, essendo stato originariamente pensato come mero elemento di chiusura, senza basamento e sistema di rivestimento ma semplicemente intonacato, si distacca dal resto dell'involucro ed è stato perciò oggetto di maggiori modifiche, in relazione anche al nuovo orientamento d'ingresso pensato per il comparto: l'Amministrazione Comunale ha infatti espresso il desiderio di modificare il percorso di accesso all'edificio, dal fronte nord su piazza Savonarola al fronte ovest su via Ugo Bassi. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, ponendo particolare attenzione al rispetto e alla valorizzazione della struttura esistente: uno dei punti forti dell'ex deposito è infatti la sua copertura in travi reticolari in c.a. con shed vetrati orientati a nord. Tale sistema di copertura è stato mantenuto per favorire l'illuminazione degli spazi interni, isolato termicamente ed integrato con dei pannelli diffusori che garantiscono una luce uniforme e ben distribuita. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze dell'utenza. Mantenendo la finalità del minimo intervento sull'involucro esistente, nel piano terra si è adottata una tipologia di ambienti open space che delimitano il doppio volume dello spazio espositivo, pensato come un semplice e neutro contenitore, allestibile in base al tipo di mostra ed alla volontà degli organizzatori. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva per l'auditorium ed i volumi adibiti a sale prova, camerini e depositi, adottando elementi prefabbricati in legno assemblati a secco. Si sono studiati anche i sistemi impiantistici al fine di garantire un elevato livello di comfort interno e nel contempo un considerevole risparmio dal punto di vista energetico. Durante le varie fasi di avanzamento e messa a punto del progetto è stata posta grande attenzione all'aspetto acustico, dalla scelta della forma della sala al trattamento superficiale per garantire un'ottima resa prestazionale, parametro imprescindibile nella progettazione di un adeguato spazio musicale. Altro elemento preso in considerazione a scala locale e urbana è stato quello della sistemazione del cortile a sud, oggi asfaltato ed utilizzato come semplice parcheggio di autobus, al fine di trasformarlo in parco pubblico fruibile dagli utenti del complesso culturale e nel contempo elemento di connessione con l'Arena, tramite un nuovo sistema di orientamenti e percorsi.
Resumo:
Il mio percorso universitario presso la Facoltà di Architettura di Cesena ha inizio nell’anno accademico 2006-2007. Il titolo della tesi “Conoscere per conservare3, conservare per conoscere” sintetizza l’importanza di offrire una spiegazione della tematica della conoscenza e della sua necessità, la quale risulta essere indispensabile per ottenere un buon progetto di restauro. Progettare un edificio senza conoscerlo appare una scelta ingiustificabile, è tuttavia necessario che la raccolta di dati analitici non sia fine a se stessa e solo finalizzata a donare una facciata di rispettabilità all’architetto e alle sue operazioni progettuali. A partire da questa riflessione si arriva inevitabilmente a parlare di “ricerca della metodologia del restauro” e delle tecniche con il quale questo deve venire affrontato in termini di “piccolo restauro” (ossia restauro delle superfici). Nonostante infatti ogni cantiere di restauro abbia una sua particolare storia è comunque necessario un metodo chiaro e ordinato, di procedure collaudate e di tecniche ben sperimentate. Alla luce di tali osservazioni i temi di seguito proposti sono occasione di una riflessione nel contempo teorica e pratica, con particolare riferimento al restauro e alla conservazione delle superfici; gli edifici scelti appartengono a temi molto differenti l’uno dell’altro e per entrambi verrà proposta una ipotesi di conservazione e restauro delle superfici. Il primo, Palazzo Guidi, è un palazzo settecentesco sito all’interno del centro storico della città di Cesena; il secondo, la Rocca Malatestiana, costruita a partire dal 1100 dalla famiglia dei Malatesta trova la sua ubicazione in cima a una roccia nella alta Valmarecchia. Il progetto per la conservazione ed il restauro di Palazzo Guidi risulta essere la sintesi degli apprendimenti ricevuti nei precedenti anni accademici in due diverse discipline quali: “Rilievo architettonico” e “Laboratorio di restauro architettonico”. Per quanto concerne la Rocca Malatestiana il tema proposto nasce invece a partire dal progetto del “LSF. Archeologia e progetto di architettura” il quale è stato maggiormente approfondito riguardo le tematiche del restauro con la collaborazione del Prof. Arch. Andrea Ugolini e con l’ausilio del corso di “Conservazione e trattamento dei materiali” seguito presso la Facoltà di Conservazione dei Beni Culturali di Ravenna.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.
Resumo:
Il territorio di Ferrara è caratterizzata da un’area ad elevata concentrazione di stabilimenti a rischio di incidente rilevante e dalla movimentazione di ingenti quantitativi di sostanze pericolose sulla rete stradale, ferroviaria ed in condotta. Basti pensare che nel solo Comune di Ferrara sono ben 5 le aziende che, per tipologia e quantità di sostanze presenti, rientrano nel campo di applicazione del D.Lgs. 334/99 (“Attuazione delle direttiva 96/82/CE relativa al controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose”). Per questo motivo, il 24 febbraio 2012 è stato sottoscritto a Ferrara il protocollo d’intesa per l’avvio dello Studio di Sicurezza Integrato d’Area (SSIA) del polo chimico ferrarese da parte della Regione Emilia Romagna, dell’Agenzia Regionale di Protezione Civile, del Comune e della Provincia di Ferrara, dell’Ufficio Territoriale del Governo, della Direzione Regionale dei Vigili del Fuoco, dell’Agenzia Regionale Prevenzione e Ambiente e delle stesse aziende del polo chimico. L’Università di Bologna, tramite il Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali presso il quale è stato svolto il presente lavoro di tesi, prende parte al Consiglio Scientifico ed al Comitato Tecnico del SSIA, aventi funzioni di direzione e di gestione operativa della ricerca. Il progetto è modellato sulla precedente esperienza realizzata in regione per il polo industriale di Ravenna (progetto ARIPAR), la cui validità è stata ampiamente riconosciuta a livello nazionale ed internazionale. L’idea alla base dello studio deriva dal fatto che per avere un quadro della situazione in un’area così complessa, è necessario non solo valutare l’insieme dei rischi presenti, ma anche le loro correlazioni e le conseguenze sul territorio di riferimento. In un’analisi di rischio d’area risulta di primaria importanza l’analisi della vulnerabilità del territorio circostante il sito industriale, in quanto scenari attesi di danno di pari severità assumono una differente valenza in relazione all’effettiva presenza di bersagli nell’area di interesse. Per tale motivo il presente lavoro di tesi ha avuto l’obiettivo di istruire il censimento della vulnerabilità del territorio di Ferrara, con riferimento ai bersagli “uomo”, “ambiente” e “beni materiali”. In primo luogo si è provveduto, sulla base delle distanze di danno degli scenari incidentali attesi, a definire l’estensione dell’area in cui effettuare il censimento. Successivamente si è approfondito il censimento della vulnerabilità del bersaglio “uomo”, prendendo in considerazione sia la popolazione residente, sia i centri di vulnerabilità localizzati all’interno dell’area potenzialmente interessata da incidenti rilevanti. I centri di vulnerabilità non sono altro che luoghi ad elevata densità di persone (ad esempio scuole, ospedali, uffici pubblici, centri commerciali), spesso caratterizzati da una maggiore difficoltà di evacuazione, sia per l’elevato numero di persone presenti sia per la ridotta mobilità delle stesse. Nello specifico si è proceduto alla creazione di un database (grazie all’utilizzo del software ArcView GIS 3.2) di tutti i centri di vulnerabilità presenti, ai quali è stato possibile associare una precisa localizzazione territoriale ed altri dati di carattere informativo. In una fase successiva dello SSIA sarà possibile associare ai centri di vulnerabilità le relative categorie di popolazione, indicando per ciascuna il numero dei presenti. I dati inseriti nel database sono stati forniti in massima parte dal Comune di Ferrara e, in misura più limitata, dall’Agenzia Regionale di Protezione Civile e dalla Camera di Commercio. Presentando spesso tali dati un’aggregazione diversa da quella necessaria ai fini dello SSIA, è stato necessario un intenso lavoro di analisi, di depurazione e di riaggregazione allo scopo di renderli disponibili in una forma fruibile per lo SSIA stesso. Da ultimo si è effettuata una valutazione preliminare della vulnerabilità dei bersagli “ambiente” e “beni materiali”. Per quanto riguarda l’ambiente, si sono messe in luce le aree sottoposte a vincoli di tutela naturalistica e quindi particolarmente vulnerabili in caso di un rilascio accidentale di sostanze pericolose. Per il bersaglio “beni materiali”, non essendo stato possibile reperire dati, si è sono evidenziate le categorie di beni da censire. In conclusione, è possibile affermare che lo studio effettuato in questo lavoro di tesi, ha consentito non solo di conseguire l’obiettivo inizialmente stabilito – l’istruzione del censimento della vulnerabilità del territorio di Ferrara - ma ha contribuito anche alla definizione di una metodologia per il censimento di aree vaste che potrà essere utilmente applicata ad altre zone del territorio nazionale.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.