999 resultados para Educazione scientifica ed educazione alla sostenibilita
Resumo:
Lo studio riportato in questa tesi ha come scopo l’osservazione e la comprensione dei processi molecolari associati alla deposizione di CaCO3 nei polimorfi di calcite e aragonite nel mollusco gasteropode Haliotis rufescens. In particolare l’attenzione si è focalizzata sullo strato glicoproteico (green layer) che si trova inserito all’interno dell’ipostraco o strato madreperlaceo. Studi precedenti suggeriscono l’ipotesi che il green layer sia una struttura polifunzionale che svolge un ruolo attivo nell’induzione di crescita dei cristalli di carbonato di calcio nella conchiglia. All’analisi microscopica il green layer si presenta come un foglietto trilaminato. Sugli strati esterni è depositata aragonite nella forma prismatica da una parte e sferulitica dall’altra. All’interno è racchiuso un core proteico, formato da glicoproteine e ricco di chitina. Questa struttura tripartita conferisce al guscio calcareo nuove proprietà meccaniche, come la resistenza alle fratture molto maggiore rispetto al minerale naturale. Il green layer è stato trattato in ambiente alcalino, l’unico in grado di solubilizzarlo. È stato ottenuto del materiale proteico che è stato caratterizzato utilizzando SDS-PAGE, colorato con Blu Comassie e all’argento per visualizzarne la componente peptidica. Il green layer è fluorescente, sono state quindi eseguite analisi spettroscopiche sull’estratto peptidico per determinarne le proprietà chimo fisiche (dipendenza dal pH dell’intensità di fluorescenza). Sono stati eseguiti esperimenti di crescita dei cristalli di CaCO3 in ambiente saturo di CaCl2 in assenza e presenza del peptide e in assenza e presenza di Mg++. I cristalli sono stati osservati al microscopio elettronico a scansione (SEM) e al microscopio confocale. Da un punto di vista spettroscopico si osserva che, eccitando l’estratto alcalino del green layer a 280 nm e 295 nm, lunghezze d’onda caratteristiche degli aminoacidi aromatici, si ottiene uno spettro di emissione che presenta una forte banda centrata a 440 nm e una spalla a circa 350 nm, quest’ultima da ascrivere all’emissione tipica di aminoacidi aromatici. L’emissione di fluorescenza dell’estratto dal green layer dipende dal pH per tutte le bande di emissione; tale effetto è particolarmente visibile per lo spettro di emissione a 440 nm, la cui lunghezza d’onda di emissione e l’intensità dipendono dalla ionizzazione di aminoacidi acidi (pKa = 4) e dell’istidina (pKa = 6.5 L’emissione a 440 nm proviene invece da un’eccitazione il cui massimo di eccitazione è centrato a 350 nm, tipica di una struttura policiclica aromatica. Poiché nessun colorante estrinseco viene isolato dalla matrice del green layer a seguito dei vari trattamenti, tale emissione potrebbe derivare da una modificazione posttraduzionale di aminoacidi le cui proprietà spettrali suggeriscono la formazione di un prodotto di dimerizzazione della tirosina: la ditirosina. Questa struttura potrebbe essere la causa del cross-link che rende resistente il green layer alla degradazione da parte di agenti chimici ed enzimatici. La formazione di ditirosina come fenomeno post-traduzionale è stato recentemente acquisito come un fenomeno di origine perossidativa attraverso la formazione di un radicale Tyr ed è stato osservato anche in altri organismi caratterizzati da esoscheletro di tipo chitinoso, come gli insetti del genere Manduca sexta. Gli esperimenti di cristallizzazione in presenza di estratto di green layer ne hanno provato l’influenza sulla nucleazione dei cristalli. In presenza di CaCl2 avviene la precipitazione di CaCO3 nella fase calcitica, ma la conformazione romboedrica tipica della calcite viene modificata dalla presenza del peptide. Inoltre aumenta la densità dei cristalli che si aggregano a formare strutture sferiche di cristalli incastrati tra loro. Aumentando la concentrazione di peptide, le sfere a loro volta si uniscono tra loro a formare strutture geometriche sovrapposte. In presenza di Mg++, la deposizione di CaCO3 avviene in forma aragonitica. Anche in questo caso la morfologia e la densità dei cristalli dipendono dalla concentrazione dello ione e dalla presenza del peptide. È interessante osservare che, in tutti i casi nei quali si sono ottenute strutture cristalline in presenza dell’estratto alcalino del green layer, i cristalli sono fluorescenti, a significare che il peptide è incluso nella struttura cristallina e ne induce la modificazione strutturale come discusso in precedenza. Si osserva inoltre che le proprietà spettroscopiche del peptide in cristallo ed in soluzione sono molto diverse. In cristallo non si ha assorbimento alla più corta delle lunghezze d’onda disponibili in microscopia confocale (405 nm) bensì a 488 nm, con emissione estesa addirittura sino al rosso. Questa è un’indicazione, anche se preliminare, del fatto che la sua struttura in soluzione e in cristallo è diversa da quella in soluzione. In soluzione, per un peptide il cui peso molecolare è stimato tra 3500D (cut-off della membrana da dialisi) e 6500 D, la struttura è, presumibilmente, totalmente random-coil. In cristallo, attraverso l’interazione con gli ioni Ca++, Mg++ e CO3 -- la sua conformazione può cambiare portando, per esempio, ad una sovrapposizione delle strutture aromatiche, in modo da formare sistemi coniugati non covalenti (ring stacking) in grado di assorbire ed emettere luce ad energia più bassa (red shift).
Resumo:
Il distretto è un luogo relazionale dinamico dove le imprese danno luogo a differenti comportamenti economici di vario genere e natura, cooperando in un certo senso per lo sviluppo e la crescita del distretto stesso. In un primo momento di formazione del distretto si sono delineati comportamenti di tipo path dependent per vantaggi economici dovuti alla distribuzione delle imprese nel territorio, ma con il tempo si sono cominciati ad avere comportamenti espansionistici differenti sia dall'interno che dall'esterno del distretto influendo direttamente sulla struttura del stesso. É ragionevole dunque pensare che gli attori guardino al rapporto “locale/globale” con una sorta di "strabismo", da un lato leggendo il distretto (dall’interno come dall’esterno) come un luogo privilegiato per la formazione di economie di prossimità, dall’altro puntando a disporre le catene produttive nello spazio globale, alla ricerca dei vantaggi derivanti da un minor costo del lavoro o dalla immediata prossimità dei mercati di sbocco. il distretto viene dunque attraversato da dinamiche che lo globalizzano ma, al contempo, ne preservano (almeno per ora) la specificità. Non è più possibile leggere la sua forma economica solo nella logica della embeddedness, e non sarebbe certo corretto farlo solo in chiave di openness. Si tratta dunque di interrogarsi sul rapporto più di integrazione/complementarità che di contrapposizione fra openness ed embeddedness. In questa tesi verrà descritto un metodo d'approccio per dare un valore al fenomeno di Openness e Embeddedness presente nel distretto partendo da un dataset di dati relazionali ricavati da due database economici Amadeus e Aida. Non essendo possibile trovare pubblicamente dati sulle reti di fornitura delle singole aziende, siamo partiti dai dati relazionali di cinque aziende “seme”, ed attraverso una ricerca ricorsiva nelle relazioni di azionariato/partecipazione, siamo riusciti ad ottenere un campione di analisi che ci permette di mettere in luce tramite la custer analysis le principali tipologie di reti di imprese presenti nel distretto ed estese nello spazio globale.
Resumo:
Questa tesi tratta dell'applicazione agli edifici esistenti di dispositivi per la produzione energetica da fonte rinnovabile: solare fotovoltaica, solare termica ed eolica. Dopo aver analizzato i motivi economici ed ambientali che oggi inducono ad affrontare il tema complesso dell'integrazione di queste tecnologie anche negli edifici esistenti, vengono documentate alcune decine di recenti istallazioni, reperite in ambito internazionale, costituendo così un piccolo repertorio di casi applicativi. Il ricorso alle fonti di energia rinnovabili in architettura ed il concetto di sostenibilità applicato alla progettazione sono temi di interesse mondiale che coinvolgono la riqualificazione energetica del parco edilizio esistente. Questo fenomeno sta generando una vera rivoluzione che, da una dimensione culturale promossa dalle politiche energetiche dei vari paesi, travolge svariati ambiti disciplinari, primo tra tutti l'architettura. L’elaborato è idealmente diviso in quattro parti, come di seguito specificato. Nel primo capitolo vengono trattate le problematiche che stanno portando alla diffusione delle energie rinnovabili nel mondo e descritte le varie forme e tecnologie con cui si utilizzano. Nel secondo e terzo capitolo sono trattati i temi dell’energia negli edifici e la sostenibilità nel progetto per la riqualificazione energetica in architettura. Negli ultimi tre capitoli si analizzano le caratteristiche, i componenti ed il funzionamento dei sistemi fotovoltaici, solari termici e micro/mini-eolici applicati ai manufatti edilizi. Si descrivono, inoltre, le tecnologie e le soluzioni per l’integrazione di detti impianti sugli edifici esistenti. L’ultima parte, costituita dall’allegato che contiene le schede di analisi di alcuni casi studio, descrive la realizzazione di progetti di riqualificazione energetica in cui sistemi fotovoltaici, solari termici ed eolici vengono applicati ad edifici di vario genere.
Resumo:
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Resumo:
Da 25 anni la letteratura scientifica internazionale riporta studi su varie specie di microcrostacei copepodi ciclopoidi dei generi Macrocyclops, Megacyclops e Mesocyclops predatori di larve di 1a e 2a età di culicidi. Si tratta di prove di predazione in laboratorio e in pieno campo, in diverse aree del pianeta nessuna delle quali riguarda l’Italia o il resto d’Europa, contro principalmente Aedes aegypti (L.), Ae. albopictus (Skuse) e altre specie del genere Anopheles e Culex. L’allevamento massale di copepodi ciclopoidi appare praticabile e questo, assieme alle buone prestazioni predatorie, rende tali ausiliari candidati assai interessanti contro le due principali specie di zanzare, Culex pipiens L. e Ae. albpopictus, che nelle aree urbane e periurbane italiane riescono a sfruttare raccolte d’acqua artificiali di volume variabile e a regime idrico periodico o permanente. Pertanto lo scopo dello studio è stato quello di arrivare a selezionare una o più specie di copepodi candidati per la lotta biologica e valutarne la possibilità applicativa nell’ambito dei programmi di controllo delle zanzare nocive dell’ambiente urbano. L’argomento del tutto nuovo per il nostro paese, è stato sviluppato attraverso varie fasi ciascuna delle quali propedeutica a quella successiva. •Indagine faunistica nell’area di pianura e costiera sulle specie di ciclopoidi associate a varie tipologie di raccolte d’acqua naturali e artificiali (fossi, scoline, canali, risaie e pozze temporanee). I campionamenti sono stati condotti con l’obiettivo di ottenere le specie di maggiori dimensioni (≥1 mm) in ristagni con diverse caratteristiche in termini di qualità dell’acqua e complessità biocenotica. •Prove preliminari di predazione in laboratorio con alcune specie rinvenute negli ambienti campionati, nei confronti delle larve di Ae. albopictus e Cx. pipiens. Le prestazioni di predazione sono state testate sottoponendo ai copepodi larve giovani di zanzare provenienti da allevamento e calcolato il numero giornaliero di larve attaccate. •Implementazione di un allevamento pilota della specie valutata più interessante, Macrocyclops albidus (Jurine) (Cyclopoida, Cyclopidae, Eucyclopinae), per i risultati ottenuti in laboratorio in termini di numero di larve predate/giorno e per le caratteristiche biologiche confacenti agli ambienti potenzialmente adatti ai lanci. Questa parte della ricerca è stata guidata dalla finalità di mettere a punto una tecnica di allevamento in scala in modo da disporre di stock di copepodi dalla primavera, nonchè da criteri di economicità nell’impianto e nella sua gestione. •Prove di efficacia in condizioni di semicampo e di campo in raccolte d’acqua normalmente colonizzate dai culicidi in ambito urbano: bidoni per lo stoccaggio di acqua per l’irrigazione degli orti e tombini stradali. In questo caso l’obiettivo principale è stato quello di ottenere dati sull’efficienza del controllo di M. albidus nei confronti della popolazione culicidica selvatica e sulla capacità del copepode di colonizzare stabilmente tali tipologie di focolai larvali. Risultati e conclusioni Indagine faunistica e prove di predazione in laboratorio L’indagine faunistica condotta nell’area costiera ferrarese, in quella ravennate e della pianura bolognese ha portato al rinvenimento di varie specie di ciclopoidi mantenuti in laboratorio per la conduzione delle prove di predazione. Le specie testate sono state: Acanthocyclops robustus (G. O. Sars), Macrocyclops albidus (Jurine), Thermocyclops crassus (Fischer), Megacyclops gigas (Claus). La scelta delle specie da testare è stata basata sulla loro abbondanza e frequenza di ritrovamento nei campionamenti nonché sulle loro dimensioni. Ciascuna prova è stata condotta sottoponendo a un singolo copepode, oppure a gruppi di 3 e di 5 esemplari, 50 larve di 1a età all’interno di contenitori cilindrici in plastica con 40 ml di acqua di acquedotto declorata e una piccola quantità di cibo per le larve di zanzara. Ciascuna combinazione “copepode/i + larve di Ae. albopictus”, è stata replicata 3-4 volte, e confrontata con un testimone (50 larve di Ae. albopictus senza copepodi). A 24 e 48 ore sono state registrate le larve sopravvissute. Soltanto per M. albidus il test di predazione è stato condotto anche verso Cx. pipiens. Messa a punto della tecnica di allevamento La ricerca è proseguita concentrando l’interesse su M. albidus, che oltre ad aver mostrato la capacità di predare a 24 ore quasi 30 larve di Ae. albopictus e di Cx. pipiens, dalla bibliografia risulta tollerare ampi valori di temperatura, di pH e alte concentrazioni di vari inquinanti. Dalla ricerca bibliografica è risultato che i ciclopoidi sono facilmente allevabili in contenitori di varia dimensione e foggia somministrando agli stadi di preadulto alghe unicellulari (Chlorella, Chilomonas), protozoi ciliati (Paramecium, Euplotes), rotiferi e cladoceri. Ciò presuppone colture e allevamenti in purezza di tali microrganismi mantenuti in parallelo, da utilizzare come inoculo e da aggiungere periodicamente nell’acqua di allevamento dei ciclopoidi. Nel caso di utilizzo di protozoi ciliati, occorre garantirne lo sviluppo che avviene a carico di flora batterica spontanea a sua volta cresciuta su di un substrato organico quale latte, cariossidi bollite di grano o soia, foglie di lattuga, paglia di riso bollita con cibo secco per pesci, lievito di birra. Per evitare il notevole impegno organizzativo e di manodopera nonché il rischio continuo di perdere la purezza della colonia degli organismi da utilizzare come cibo, le prove comparative di allevamento hanno portato ad un protocollo semplice ed sufficientemente efficiente in termini di copepodi ottenibili. Il sistema messo a punto si basa sull’utilizzo di una popolazione mista di ciliati e rotiferi, mantenuti nell'acqua di allevamento dei copepodi mediante la somministrazione periodica di cibo standard e pronto all’uso costituito da cibo secco per gatti. Prova di efficacia in bidoni da 220 l di capacità La predazione è stata studiata nel biennio 2007-2008 in bidoni da 220 l di capacità inoculati una sola volta in aprile 2007 con 100 e 500 esemplari di M. albidus/bidone e disposti all’aperto per la libera ovideposizione della popolazione culicidica selvatica. L’infestazione preimmaginale culicidica veniva campionata ogni due settimane fino ad ottobre, mediante un retino immanicato a maglia fitta e confrontata con quella dei bidoni testimone (senza copepodi). Nel 2007 il tasso di riduzione medio delle infestazioni di Ae. albopictus nei bidoni con copepodi, rispetto al testimone, è del 99,90% e del 100,00% rispettivamente alle dosi iniziali di inoculo di 100 e 500 copepodi/bidone; per Cx. pipiens L. tale percentuale media è risultata di 88,69% e di 84,65%. Similmente, nel 2008 si è osservato ad entrambe le dosi iniziali di inoculo una riduzione di Ae. albopictus del 100,00% e di Cx. pipiens del 73,3%. La dose di inoculo di 100 copepodi per contenitore è risultata sufficiente a garantire un rapido incremento numerico della popolazione che ha raggiunto la massima densità in agosto-settembre e un eccellente controllo delle popolazioni di Ae. albopictus. Prova di efficacia in campo in serbatoi per l’acqua irrigua degli orti La prova è stata condotta a partire dalla metà di agosto 2008 interessando 15 serbatoi di varia foggia e capacità, variabile tra 200 e 600 l, utilizzati per stoccare acqua orti famigliari nel comune di Crevalcore (BO). Ai proprietari dei serbatoi era chiesto di gestire il prelievo dell’acqua e i rifornimenti come da abitudine con l’unica raccomandazione di non svuotarli mai completamente. In 8 contenitori sono stati immessi 100 esemplari di M.albidus e una compressa larvicida a base di Bacillus thuringiensis var. israelensis (B.t.i.); nei restanti 7 è stata soltanto immessa la compressa di B.t.i.. Il campionamento larvale è stato settimanale fino agli inizi di ottobre. Dopo l’introduzione in tutti i serbatoi sono stati ritrovati esemplari di copepodi, nonostante il volume di acqua misurato settimanalmente sia variato da pochi litri, in qualche bidone, fino a valori della massima capacità, per effetto del prelievo e dell’apporto dell’acqua da parte dei gestori degli orti. In post-trattamento sono state osservate differenze significative tra le densità larvali nelle due tesi solo al 22 settembre per Ae.albopictus Tuttavia in termini percentuali la riduzione media di larve di 3a-4a età e pupe nei bidoni con copepodi, rispetto al testimone, è stata de 95,86% per Ae. albopictus e del 73,30% per Cx. pipiens. Prova di efficacia in tombini stradali Sono state condotte due prove in due differenti località, interessando 20 tombini (Marano di Castenaso in provincia di Bologna nel 2007) e 145 tombini (San Carlo in provincia di Ferrara nel 2008), quest’ultimi sottoposti a spurgo e pulizia completa nei precedenti 6 mesi l’inizio della prova. L’introduzione dei copepodi nei tombini è stata fatta all’inizio di luglio nella prova di Marano di Castenaso e alla fine di aprile e giugno in quelli di San Carlo, a dosi di 100 e 50 copepodi/tombino. Prima dell’introduzione dei copepodi e successivamente ogni 2 settimane per due mesi, in ogni tombino veniva campionata la presenza culicidica e dei copepodi con dipper immanicato. Nel 2007 dopo l’introduzione dei copepodi e per tutto il periodo di studio, mediamente soltanto nel 77% dei tombini i copepodi sono sopravvissuti. Nel periodo di prova le precipitazioni sono state scarse e la causa della rarefazione dei copepodi fino alla loro scomparsa in parte dei tombini è pertanto da ricercare non nell’eventuale dilavamento da parte della pioggia, quanto dalle caratteristiche chimico-fisiche dell’acqua. Tra queste innanzitutto la concentrazione di ossigeno che è sempre stata molto bassa (0÷1,03 mg/l) per tutta la durata del periodo di studio. Inoltre, a questo fattore probabilmente è da aggiungere l’accumulo, a concentrazioni tossiche per M. albidus, di composti organici e chimici dalla degradazione e fermentazione dell’abbondante materiale vegetale (soprattutto foglie) in condizioni di ipossia o anossia. Nel 2008, dopo il primo inoculo di M. albidus la percentuale di tombini che al campionamento presentano copepodi decresce in modo brusco fino a raggiungere il 6% a 2 mesi dall’introduzione dei copepodi. Dopo 40 giorni dalla seconda introduzione, la percentuale di tombini con copepodi è del 6,7%. Nell’esperienza 2008 è le intense precipitazioni hanno avuto probabilmente un ruolo determinante sul mantenimento dei copepodi nei tombini. Nel periodo della prova infatti le piogge sono state frequenti con rovesci in varie occasioni di forte intensità per un totale di 342 mm. Sotto questi livelli di pioggia i tombini sono stati sottoposti a un continuo e probabilmente completo dilavamento che potrebbe aver impedito la colonizzazione stabile dei copepodi. Tuttavia non si osservano influenze significative della pioggia nella riduzione percentuale dei tombini colonizzati da copepodi e ciò fa propendere all’ipotesi che assieme alla pioggia siano anche le caratteristiche fisico-chimiche dell’acqua a impedire una colonizzazione stabile da parte di M. albidus. In definitiva perciò si è dimostrato che i tombini stradali sono ambienti ostili per la sopravvivenza di M. albidus, anche se, dove il ciclopoide si è stabilito permanentemente, ha dimostrato un certo impatto nei confronti di Ae. albopictus e di Cx. pipiens, che tuttavia è risultato non statisticamente significativo all’analisi della varianza. Nei confronti delle larve di Culex pipiens il copepode non permette livelli di controllo soddisfacente, confermando i dati bibliografici. Nei confronti invece di Ae. albopictus la predazione raggiunge buoni livelli; tuttavia ciò non è compensato dalla percentuale molto alta di tombini che, dopo periodi di pioggia copiosa o singoli episodi temporaleschi o per le condizioni di anossia rimangono senza i copepodi. Ciò costringerebbe a ripetute introduzioni di copepodi i cui costi attualmente non sono inferiori a quelli per trattamenti con prodotti larvicidi. In conclusione la ricerca ha portato a considerare Macrocyclops albidus un interessante ausiliario applicabile anche nelle realtà urbane del nostro paese nell’ambito di programmi integrati di contrasto alle infestazioni di Aedes albopictus. Tuttavia il suo utilizzo non si presta a tutti i focolai larvali ma soltanto a raccolte di acqua artificiali di un certo volume come i bidoni utilizzati per stoccare acqua da impiegare per l’orto e il giardino familiare nelle situazioni in cui non è garantita la copertura ermetica, lo svuotamento completo settimanale o l’utilizzo di sostanze ad azione larvozanzaricida.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
Il lavoro tratta l’applicazione di due progetti di Reengineering, in un caso l’obiettivo era quello di ottimizzare il processo di fatturazione passiva di un’azienda operante nel settore della ceramica, nell’altro quello di supportare un Gruppo, operante nel settore logistico, nella valutare l’opportunità di accentramento dei servizi ICT, mitigando gli impatti derivati dai possibili cambiamenti. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso la società di consulenza Revision SRL. Nella prima parte della tesi, attraverso un’analisi della letteratura di riferimento, si sono indagati i principali fattori che interagiscono in un processo di Change management, si è anche effettuato un approfondimento delle tematiche di Business Process Reengineering, i cui principi hanno guidato l’intervento effettuato. La ricerca ha teso ad evidenziare da un lato le radici e gli elementi innovativi che contraddistinguono questo approccio metodologico e dall’altro a sottolineare le possibili cause di insuccesso di un progetto di BPR. La sezione si conclude con la formalizzazione delle metodologia e degli strumenti utilizzati nella conduzione dei progetti. Nella seconda parte del lavoro, insieme alla descrizione del primo caso vengono presentate le varie fasi della riprogettazione, dalla analisi della situazione iniziale, effettuata tramite un questionario e delle interviste dirette al personale addetto, alla identificazione delle criticità, fino alla presentazione e alla valutazione delle nuove configurazioni del processo. Il lavoro è arricchito dall’analisi e dall’applicazione delle tecnologie informatiche/informative di supporto alla nuova configurazione descritta. Nella terza parte, a completamento dell’elaborato, viene presentato il secondo progetto analizzato dove, dopo una fase di analisi della situazione iniziale ancora tramite questionario ed interviste dirette, si riportano le considerazioni fatte in merito alla possibilità di accentramento dei servizi ICT del gruppo analizzato.
Resumo:
Il lavoro di tesi si è incentrato sull’analisi dei frammenti di manoscritti ebraici medievali rinvenuti in alcuni archivi e biblioteche dell’area emiliano-romagnola ossia, come è noto, la regione italiana che vanta il maggior numero di frammenti rinvenuti; ben 6.000 frammenti sui circa 10.000 censiti sino ad oggi in tutta l’Italia, vale a dire un numero pari al 60% del totale. Nello specifico è stato esaminato il materiale pergamenaceo ebraico conservato in Archivi e Biblioteche delle città di Cesena, Faenza ed Imola, per un totale di 230 frammenti ebraici. Ho, quindi, proceduto all’identificazione di tutti i frammenti che, se dal punto di vista testuale ci documentano parti delle principali opere ebraiche diffuse nel Medioevo, sotto l’aspetto paleografico ci attestano le tre principali tradizioni scrittorie ebraiche utilizzate in Occidente, ossia: quella italiana, la sefardita e quella ashkenazita, oltre che ad alcuni rari esempi di grafia sefardita di tipo provenzale, una tipologia rara, se si considera che fra i quasi 10.000 frammenti finora scoperti in Italia, il numero di quelli vergati in questa grafia è davvero piccolo. Successivamente ho preso in esame le caratteristiche codicologiche e paleografiche dei frammenti, in particolar modo quelle relative a rigatura, foratura, mise en page e alle varianti grafiche individuali dello scriba, fra cui abbreviazioni, segni grafici di riempimento e resa del tetragramma sacro del nome di Dio, elementi che mi hanno consentito di identificare i frammenti smembrati da uno stesso manoscritto. Ciò ha permesso di individuare ben 80 manoscritti dai quali furono smembrati i 230 frammenti ebraici rinvenuti. Infine, sulla base dei dati raccolti, è stato realizzato un catalogo di tutti i frammenti, all’interno del quale i frammenti sono stati ricomposti per manoscritto. A loro volta, i vari manoscritti, suddivisi per soggetto, sono stati ordinati per secolo, dal più antico al più recente, in base alla grafia in cui sono vergati, ossia: Italiana, Sefardita (Provenzale) o Ashkenazita e per stile: quadrata, semicorsiva e corsiva. A motivo, poi, di nuovi ritrovamenti in diverse località italiane, mi sono dedicata ad un aggiornamento della mia ricerca compiuta per la tesi di Laurea, pubblicata nel 2004, sui frammenti talmudici e midrashici scoperti negli archivi e nelle biblioteche italiani; un genere di letteratura i cui rinvenimenti, per vari motivi, sono estremamente rari. In quell’occasione furono catalogati 475 frammenti talmudici, appartenenti a 151 manoscritti diversi, databili su base paleografica tra i secc. X e XV, e 54 frammenti midrashici appartenenti ad 8 manoscritti databili tra i secc. XII e XV. Ad oggi, dopo 4 anni, sono stati scoperti 21 nuovi frammenti talmudici ed un nuovo frammento midrashico. Nello specifico di questi 21 frammenti: 17 contengono parti tratte dal Talmud babilonese e 4 dal Sefer ha-Halakot di Alfasi (un noto compendio talmudico); mentre il frammento midrashico, rinvenuto presso la Sezione di Archivio di Stato di Foligno, contiene una parte del Midrash haggadah a Deuteronomio, costituendo pertanto già di per se stesso un rinvenimento molto importante. Questo frammento, ad una prima analisi, sembrerebbe completare alcune lacune del Midrash Haggadah ai cinque libri della Torah pubblicato a Vienna nel 1894 da S. Buber sulla base del solo manoscritto esistente che, tuttavia, presentava delle lacune, come riferisce lo stesso autore nella prefazione all’opera.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
La tesi di dottorato riguarda il principio del legittimo affidamento nell'esperienza fiscale italiana, tedesca ed europea. La tesi è articolata in tre distinte parti. La prima muove dall’analisi della dottrina pubblicistica italiana e tedesca, con particolare attenzione all’origine e alla fonte del legittimo affidamento: il principio civilistico della buona fede ovvero quello della certezza dei rapporti giuridici. La seconda parte affronta il principio del legittimo affidamento nella disciplina fiscale ed è suddivisa in due distinte sezioni, una relativa all’ordinamento italiano, l’altra a quello tedesco. In particolare, l’attenzione è rivolta, in entrambe le sezioni, a verificare l’interrelazione del legittimo affidamento con il principio di irretroattività della legge e, quindi, l’esistenza, o meno, di un vincolo per il legislatore e con il principio di legalità per quanto concerne i rapporti con l’Amministrazione finanziaria, con particolare riferimento alla possibilità, per quest’ultima, di intervenire in malam partem, con effetti retroattivi. Lo sviluppo di questa seconda parte è stato condotto attraverso una disamina della dottrina e della giurisprudenza di merito e costituzionale che in Germania prima e in Italia dopo hanno proposto diverse ricostruzioni. La terza parte, infine, è dedicata all’analisi del legittimo affidamento nella giurisprudenza della Corte di Giustizia. In particolare, si è cercato di mettere in evidenza come l’Organo di Giustizia comunitaria abbia elaborato e interpretato il principio in esame e sia giunto ad annoverarlo nell’alveo dei principi di diritto comunitario.
Resumo:
Il progetto propone uno studio per verificare la fattibilita' di un piano territoriale (ideato per il bacino del Po ma di fatto estendibile a tutti i bacini fluviali) per la creazione di una filiera di colture bioenergetiche (biomasse) che, trasportate per mezzo della navigazione fluviale (uno dei mezzi di trasporto a minore emissione di CO2), alimentino una o piu' centrali a nuova tecnologia che associno alla produzione di calore (teleriscaldamento e raffreddamento) e di energia la separazione dei fumi. La CO2 catturata dalla crescita delle biomasse e recuperata dalla combustione, puo' quindi essere segregata nel sottosuolo di aree costiere subsidenti contrastando il fenomeno dellâabbassamento del suolo. Ricavando benefici in tutti i passaggi di attuazione del piano territoriale (lancio dell'agricoltura bioenergetica, rilancio della navigazione a corrente libera, avvio di una economia legata alla logistica del trasporto e dello stoccaggio delle biomasse, generazione di energia pulita, lotta alla subsidenza) il progetto, di fatto, consente di catturare ingenti quantitativi di CO2 dall'atmosfera e di segregarli nel sottosuolo, riducendo l'effetto serra. Nel corso del Dottorato e' stata sviluppata una metodologia di valutazione della sostenibilita' economica ed ambientale del progetto ad un bacino fluviale, che consta di una modulistica di raccolta dei dati di base e di una procedura informatizzata di analisi.
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
I RAEE (Rifiuti da Apparecchiature Elettriche ed Elettroniche) costituiscono un problema prioritario a livello europeo per quanto riguarda la loro raccolta, stoccaggio, trattamento, recupero e smaltimento, essenzialmente per i seguenti tre motivi: Il primo riguarda le sostanze pericolose contenute nei RAEE. Tali sostanze, nel caso non siano trattate in modo opportuno, possono provocare danni alla salute dell’uomo e all’ambiente. Il secondo è relativo alla vertiginosa crescita relativa al volume di RAEE prodotti annualmente. La crescita è dovuta alla continua e inesorabile commercializzazione di prodotti elettronici nuovi (è sufficiente pensare alle televisioni, ai cellulari, ai computer, …) e con caratteristiche performanti sempre migliori oltre all’accorciamento del ciclo di vita di queste apparecchiature elettriche ed elettroniche (che sempre più spesso vengono sostituiti non a causa del loro malfunzionamento, ma per il limitato livello di performance garantito). Il terzo (ed ultimo) motivo è legato all’ambito economico in quanto, un corretto trattamento dei RAEE, può portare al recupero di materie prime secondarie (alluminio, ferro, acciaio, plastiche, …) da utilizzare per la realizzazione di nuove apparecchiature. Queste materie prime secondarie possono anche essere vendute generando profitti considerevoli in ragione del valore di mercato di esse che risulta essere in costante crescita. Questo meccanismo ha portato a sviluppare un vasto quadro normativo che regolamenta tutto l’ambito dei RAEE dalla raccolta fino al recupero di materiali o al loro smaltimento in discarica. È importante inoltre sottolineare come lo smaltimento in discarica sia da considerarsi come una sorta di ‘ultima spiaggia’, in quanto è una pratica piuttosto inquinante. Per soddisfare le richieste della direttiva l’obiettivo dev’essere quello di commercializzare prodotti che garantiscano un minor impatto ambientale concentrandosi sul processo produttivo, sull’utilizzo di materiali ‘environmentally friendly’ e sulla gestione consona del fine vita. La Direttiva a livello europeo (emanata nel 2002) ha imposto ai Paesi la raccolta differenziata dei RAEE e ha definito anche un obiettivo di raccolta per tutti i suoi Stati Membri, ovvero 4 kg di RAEE raccolti annualmente da ogni abitante. Come riportato di seguito diversi paesi hanno raggiunto l’obiettivo sopra menzionato (l’Italia vi è riuscita nel 2010), ma esistono anche casi di paesi che devono necessariamente migliorare il proprio sistema di raccolta e gestione dei RAEE. Più precisamente in Italia la gestione dei RAEE è regolamentata dal Decreto Legislativo 151/2005 discusso approfonditamente in seguito ed entrato in funzione a partire dal 1° Gennaio 2008. Il sistema italiano è basato sulla ‘multi consortilità’, ovvero esistono diversi Sistemi Collettivi che sono responsabili della gestione dei RAEE per conto dei produttori che aderiscono ad essi. Un altro punto chiave è la responsabilità dei produttori, che si devono impegnare a realizzare prodotti durevoli e che possano essere recuperati o riciclati facilmente. I produttori sono coordinati dal Centro di Coordinamento RAEE (CDC RAEE) che applica e fa rispettare le regole in modo da rendere uniforme la gestione dei RAEE su tutto il territorio italiano. Il documento che segue sarà strutturato in quattro parti. La prima parte è relativa all’inquadramento normativo della tematica dei RAEE sia a livello europeo (con l’analisi della direttiva ROHS 2 sulle sostanze pericolose contenute nei RAEE e la Direttiva RAEE), sia a livello italiano (con un’ampia discussione sul Decreto Legislativo 151/2005 e Accordi di Programma realizzati fra i soggetti coinvolti). La seconda parte tratta invece il sistema di gestione dei RAEE descrivendo tutte le fasi principali come la raccolta, il trasporto e raggruppamento, il trattamento preliminare, lo smontaggio, il riciclaggio e il recupero, il ricondizionamento, il reimpiego e la riparazione. La terza definisce una panoramica delle principali metodologie di smaltimento dei 5 raggruppamenti di RAEE (R1, R2, R3, R4, R5). La quarta ed ultima parte riporta i risultati a livello italiano, europeo ed extra-europeo nella raccolta dei RAEE, avvalendosi dei report annuali redatti dai principali sistemi di gestione dei vari paesi considerati.
Resumo:
Le tecniche dell'informazione e i metodi della comunicazione hanno modificato il modo di redigere documenti destinati a trasmettere la conoscenza, in un processo che è a tutt'oggi in corso di evoluzione. Anche l'attività progettuale in ingegneria ed architettura, pure in un settore caratterizzato da una notevole inerzia metodologica e restio all'innovazione quale è quello dell'industria edilizia, ha conosciuto profonde trasformazioni in ragione delle nuove espressioni tecnologiche. Da tempo l'informazione necessaria per realizzare un edificio, dai disegni che lo rappresentano sino ai documenti che ne indicano le modalità costruttive, può essere gestita in maniera centralizzata mediante un unico archivio di progetto denominato IPDB (Integrated Project DataBase) pur essendone stata recentemente introdotta sul mercato una variante più operativa chiamata BIM (Building Information Modelling). Tuttavia l'industrializzazione del progetto che questi strumenti esplicano non rende conto appieno di tutti gli aspetti che vedono la realizzazione dell'opera architettonica come collettore di conoscenze proprie di una cultura progettuale che, particolarmente in Italia, è radicata nel tempo. La semantica della rappresentazione digitale è volta alla perequazione degli elementi costitutivi del progetto con l'obiettivo di catalogarne le sole caratteristiche fabbricative. L'analisi della letteratura scientifica pertinente alla materia mostra come non sia possibile attribuire ai metodi ed ai software presenti sul mercato la valenza di raccoglitori omnicomprensivi di informazione: questo approccio olistico costituisce invece il fondamento della modellazione integrata intesa come originale processo di rappresentazione della conoscenza, ordinata secondo il paradigma delle "scatole cinesi", modello evolvente che unifica linguaggi appartenenti ai differenti attori compartecipanti nei settori impiantistici, strutturali e della visualizzazione avanzata. Evidenziando criticamente i pregi e i limiti operativi derivanti dalla modellazione integrata, la componente sperimentale della ricerca è stata articolata con l'approfondimento di esperienze condotte in contesti accademici e professionali. Il risultato conseguito ha coniugato le tecniche di rilevamento alle potenzialità di "modelli tridimensionali intelligenti", dotati cioè di criteri discriminanti per la valutazione del relazionamento topologico dei componenti con l'insieme globale.
Resumo:
Poco più di dieci anni fa, nel 1998, è stata scoperta l’ipocretina (ovvero orexina), un neuropeptide ipotalamico fondamentale nella regolazione del ciclo sonno-veglia, dell’appetito e della locomozione (de Lecea 1998; Sakurai, 1998; Willie, 2001). La dimostrazione, pochi mesi dopo, di bassi livelli di ipocretina circolanti nel liquido cefalo-rachidiano di pazienti affetti da narcolessia con cataplessia (Mignot 2002) ha definitivamente rilanciato lo studio di questa rara malattia del Sistema Nervoso Centrale, e le pubblicazioni a riguardo si sono moltiplicate. In realtà le prime descrizioni della narcolessia risalgono alla fine del XIX secolo (Westphal 1877; Gélineau 1880) e da allora la ricerca clinica è stata volta soprattutto a cercare di definire il più accuratamente possibile il fenotipo del paziente narcolettico. Accanto all’alterazione del meccanismo di sonno e di veglia, e dell’alternanza tra le fasi di sonno REM (Rapid Eye Movement) e di sonno non REM, sui quali l’ipocretina agisce come un interruttore che stimola la veglia e inibisce la fase REM, sono apparse evidenti anche alterazioni del peso e del metabolismo glucidico, dello sviluppo sessuale e del metabolismo energetico (Willie 2001). I pazienti narcolettici presentano infatti, in media, un indice di massa corporea aumentato (Dauvilliers 2007), la tendenza a sviluppare diabete mellito di tipo II (Honda 1986), un’aumentata prevalenza di pubertà precoce (Plazzi 2006) e alterazioni del metabolismo energetico, rispetto alla popolazione generale (Dauvilliers 2007). L’idea che, quindi, la narcolessia abbia delle caratteristiche fenotipiche intrinseche altre, rispetto a quelle più eclatanti che riguardano il sonno, si è fatta strada nel corso del tempo; la scoperta della ipocretina, e della fitta rete di proiezioni dei neuroni ipocretinergici, diffuse in tutto l’encefalo fino al ponte e al bulbo, ha offerto poi il substrato neuro-anatomico a questa idea. Tuttavia molta strada separa l’intuizione di un possibile legame dall’individuazione dei reali meccanismi patogenetici che rendano conto dell’ampio spettro di manifestazioni cliniche che si osserva associato alla narcolessia. Lo studio svolto in questi tre anni si colloca in questa scia, e si è proposto di esplorare il fenotipo narcolettico rispetto alle funzioni dell’asse ipotalamo-ipofisi-periferia, attraverso un protocollo pensato in stretta collaborazione fra il Dipartimento di Scienze Neurologiche di Bologna e l’Unità Operativa di Endocrinologia e di Malattie del Metabolismo dell’Ospedale Sant’Orsola-Malpighi di Bologna. L’ipotalamo è infatti una ghiandola complessa e l’approccio multidisciplinare è sembrato essere quello più adatto. I risultati ottenuti, e che qui vengono presentati, hanno confermato le aspettative di poter dare ulteriori contributi alla caratterizzazione della malattia; un altro aspetto non trascurabile, e che però verrà qui omesso, sono le ricadute cliniche in termini di inquadramento e di terapia precoce di quelle alterazioni, non strettamente ipnologiche, e però associate alla narcolessia.