83 resultados para metodo parametrice operatori parabolici Fokker Planck
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
Resumo:
Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)
Resumo:
Ion channels are protein molecules, embedded in the lipid bilayer of the cell membranes. They act as powerful sensing elements switching chemicalphysical stimuli into ion-fluxes. At a glance, ion channels are water-filled pores, which can open and close in response to different stimuli (gating), and one once open select the permeating ion species (selectivity). They play a crucial role in several physiological functions, like nerve transmission, muscular contraction, and secretion. Besides, ion channels can be used in technological applications for different purpose (sensing of organic molecules, DNA sequencing). As a result, there is remarkable interest in understanding the molecular determinants of the channel functioning. Nowadays, both the functional and the structural characteristics of ion channels can be experimentally solved. The purpose of this thesis was to investigate the structure-function relation in ion channels, by computational techniques. Most of the analyses focused on the mechanisms of ion conduction, and the numerical methodologies to compute the channel conductance. The standard techniques for atomistic simulation of complex molecular systems (Molecular Dynamics) cannot be routinely used to calculate ion fluxes in membrane channels, because of the high computational resources needed. The main step forward of the PhD research activity was the development of a computational algorithm for the calculation of ion fluxes in protein channels. The algorithm - based on the electrodiffusion theory - is computational inexpensive, and was used for an extensive analysis on the molecular determinants of the channel conductance. The first record of ion-fluxes through a single protein channel dates back to 1976, and since then measuring the single channel conductance has become a standard experimental procedure. Chapter 1 introduces ion channels, and the experimental techniques used to measure the channel currents. The abundance of functional data (channel currents) does not match with an equal abundance of structural data. The bacterial potassium channel KcsA was the first selective ion channels to be experimentally solved (1998), and after KcsA the structures of four different potassium channels were revealed. These experimental data inspired a new era in ion channel modeling. Once the atomic structures of channels are known, it is possible to define mathematical models based on physical descriptions of the molecular systems. These physically based models can provide an atomic description of ion channel functioning, and predict the effect of structural changes. Chapter 2 introduces the computation methods used throughout the thesis to model ion channels functioning at the atomic level. In Chapter 3 and Chapter 4 the ion conduction through potassium channels is analyzed, by an approach based on the Poisson-Nernst-Planck electrodiffusion theory. In the electrodiffusion theory ion conduction is modeled by the drift-diffusion equations, thus describing the ion distributions by continuum functions. The numerical solver of the Poisson- Nernst-Planck equations was tested in the KcsA potassium channel (Chapter 3), and then used to analyze how the atomic structure of the intracellular vestibule of potassium channels affects the conductance (Chapter 4). As a major result, a correlation between the channel conductance and the potassium concentration in the intracellular vestibule emerged. The atomic structure of the channel modulates the potassium concentration in the vestibule, thus its conductance. This mechanism explains the phenotype of the BK potassium channels, a sub-family of potassium channels with high single channel conductance. The functional role of the intracellular vestibule is also the subject of Chapter 5, where the affinity of the potassium channels hEag1 (involved in tumour-cell proliferation) and hErg (important in the cardiac cycle) for several pharmaceutical drugs was compared. Both experimental measurements and molecular modeling were used in order to identify differences in the blocking mechanism of the two channels, which could be exploited in the synthesis of selective blockers. The experimental data pointed out the different role of residue mutations in the blockage of hEag1 and hErg, and the molecular modeling provided a possible explanation based on different binding sites in the intracellular vestibule. Modeling ion channels at the molecular levels relates the functioning of a channel to its atomic structure (Chapters 3-5), and can also be useful to predict the structure of ion channels (Chapter 6-7). In Chapter 6 the structure of the KcsA potassium channel depleted from potassium ions is analyzed by molecular dynamics simulations. Recently, a surprisingly high osmotic permeability of the KcsA channel was experimentally measured. All the available crystallographic structure of KcsA refers to a channel occupied by potassium ions. To conduct water molecules potassium ions must be expelled from KcsA. The structure of the potassium-depleted KcsA channel and the mechanism of water permeation are still unknown, and have been investigated by numerical simulations. Molecular dynamics of KcsA identified a possible atomic structure of the potassium-depleted KcsA channel, and a mechanism for water permeation. The depletion from potassium ions is an extreme situation for potassium channels, unlikely in physiological conditions. However, the simulation of such an extreme condition could help to identify the structural conformations, so the functional states, accessible to potassium ion channels. The last chapter of the thesis deals with the atomic structure of the !- Hemolysin channel. !-Hemolysin is the major determinant of the Staphylococcus Aureus toxicity, and is also the prototype channel for a possible usage in technological applications. The atomic structure of !- Hemolysin was revealed by X-Ray crystallography, but several experimental evidences suggest the presence of an alternative atomic structure. This alternative structure was predicted, combining experimental measurements of single channel currents and numerical simulations. This thesis is organized in two parts, in the first part an overview on ion channels and on the numerical methods adopted throughout the thesis is provided, while the second part describes the research projects tackled in the course of the PhD programme. The aim of the research activity was to relate the functional characteristics of ion channels to their atomic structure. In presenting the different research projects, the role of numerical simulations to analyze the structure-function relation in ion channels is highlighted.
Resumo:
Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.
Resumo:
La ricerca consiste nell’analisi degli elementi normativi che caratterizzano l’azione della Comunità in materia di alimenti. L’obiettivo è quello di verificare l’esistenza di un nucleo di principi comuni cui il legislatore comunitario si ispira nella ricerca di un equilibrio tra le esigenze di tutela della salute e quelle relative alla libera circolazione degli alimenti. Lo studio si apre con la ricostruzione storica delle principali fasi che hanno condotto alla definizione della politica comunitaria di sicurezza alimentare. Durante i primi anni del processo di integrazione europea, l’attenzione del legislatore comunitario si è concentrata sugli alimenti, esclusivamente in virtù della loro qualità di merci. La tutela della salute rimaneva nella sfera di competenza nazionale e le incursioni del legislatore comunitario in tale settore erano volte ad eliminare le divergenze normative suscettibili di rappresentare un ostacolo al commercio. Nella trattazione sono illustrati i limiti che un approccio normativo essenzialmente orientato alla realizzazione del mercato interno era in grado potenzialmente di creare sul sistema e che le vicende legate alle crisi alimentari degli anni Novanta hanno contribuito a rendere evidenti. Dall’urgenza di un coinvolgimento qualitativamente diverso della Comunità nelle tematiche alimentari, si è sviluppata progressivamente la necessità di una politica che fosse in grado di determinare un punto di equilibrio tra le esigenze di sicurezza alimentare e quelle della libera circolazione degli alimenti. Il risultato di tale processo di riflessione è stata l’adozione del Regolamento 178/2002 CE che stabilisce i principi e i requisiti generali della legislazione alimentare ed istituisce l’Autorità per la sicurezza alimentare. Nei capitoli successivi, è svolta un’analisi dettagliata delle innovazioni normative introdotte nell’ambito dell’azione comunitaria in materia di alimenti, con l’obiettivo di verificare se tale riforma abbia impresso alla formazione delle regole in materia di alimenti caratteristiche e specificità proprie. In particolare, vengono esaminate le finalità della politica alimentare comunitaria, evidenziando il ruolo centrale ormai assunto dalla tutela della salute rispetto al principio fondamentale della libera circolazione. Inoltre, l’analisi si concentra nell’identificazione del campo di applicazione materiale – la definizione di alimento – e personale – la definizione di impresa alimentare e di consumatore – della legislazione alimentare. Successivamente, l'analisi si concentra s sui principi destinati ad orientare l’attività normativa della Comunità e degli Stati membri nell’ambito del settore in precedenza individuato. Particolare attenzione viene dedicata allo studio dell’interazione tra l’attività di consulenza scientifica e la fase politico-decisionale, attraverso l’approfondimento del principio dell’analisi dei rischi, del principio di precauzione e del principio di trasparenza. Infine, l’analisi si conclude con lo studio di alcuni requisiti innovativi introdotti dal Regolamento 178 come la rintracciabilità degli alimenti, l’affermazione generale dell’esigenza di garantire la sicurezza dei prodotti e la responsabilità primaria degli operatori del settore alimentare. Il risultato del profondo ripensamento del sistema attuato con il Regolamento 178 é la progressiva individuazione di un quadro di principi e requisiti orizzontali destinati ad imprimere coerenza ed organicità all’azione della Comunità in materia di alimenti. Tale tendenza è inoltre confermata dalla giurisprudenza comunitaria che utilizza tali principi in chiave interpretativa ed analogica. Lo studio si conclude con alcune considerazioni di carattere generale, mettendo in luce la difficoltà di bilanciare le esigenze di protezione della salute con gli imperativi della libera di circolazione degli alimenti. Tale difficoltà dipende dalla natura di merce “complessa” dei prodotti alimentari nel senso che, accanto alla dimensione economica e commerciale, essi sono caratterizzati da un’importante dimensione sociale e culturale. L'indagine svolta mostra come nel settore considerato la ricerca di un equilibrio tra esigenze contrapposte ha prodotto una sostanziale centralizzazione della gestione della politica alimentare a livello europeo.
Resumo:
La definizione di “benessere animale” e le modalità di determinazione di tale parametro sono ancora ampiamente dibattute. C’è, però, una generale concordanza sul fatto che una condizione di malessere dia origine a variazioni fisiologiche e comportamentali che possono essere rilevate e misurate. Tra i parametri endocrini, il più studiato è, senza dubbio, il cortisolo, in quanto connesso con l’attivazione dell’asse ipotalamico-pituitario-surrenale in condizioni di stress e quindi ritenuto indicatore ideale di benessere, benché debba essere utilizzato con cautela in quanto un aumento dei livelli di questo ormone non si verifica con ogni tipo di stressor. Inoltre, si deve considerare che la raccolta del campione per effettuare le analisi, spesso implica il confinamento ed il contenimento degli animali e può essere, quindi, essa stessa un fattore stressante andando ad alterare i risultati. Alla luce delle suddette conoscenze gli obiettivi scientifici di questa ricerca, condotta sul gatto e sul cane, sono stati innanzitutto validare il metodo di dosaggio di cortisolo dal pelo e stabilire se tale dosaggio può rappresentare un indicatore, non invasivo, di benessere dell’animale (indice di “stress cronico”). In seguito, abbiamo voluto individuare i fattori di stress psico-sociale in gatti che vivono in gattile, in condizioni di alta densità, analizzando i correlati comportamentali ed ormonali dello stress e del benessere in questa condizione socio-ecologica, ricercando, in particolare, l’evidenza ormonale di uno stato di stress prolungato e la messa in atto di strategie comportamentali di contenimento dello stesso e il ruolo della marcatura visivo-feromonale, inoltre abbiamo effettuato un confronto tra oasi feline di diversa estensione spaziale per valutare come varia lo stress in rapporto allo spazio disponibile. Invece, nel cane abbiamo voluto evidenziare eventuali differenze dei livelli ormonali tra cani di proprietà e cani di canili, tra cani ospitati in diversi canili e tra cani che vivono in diverse realtà familiari; abbiamo voluto valutare gli effetti di alcuni arricchimenti sui cani di canile ed, infine, abbiamo analizzato cani sottoposti a specifici programmi si addestramento. Il primo importante ed originale risultato raggiunto, che risponde al primo obiettivo della ricerca, è stato la validazione del dosaggio radioimmunologico di cortisolo in campioni di pelo. Questo risultato, a nostro avviso, apre una nuova finestra sul campo della diagnostica endocrinologica metabolica. Attualmente, infatti, il monitoraggio ormonale viene effettuato su campioni ematici la cui raccolta prevede un elevato stress (stress da prelievo) per l’animale data l'invasività dell'operazione che modifica l’attività di ipotalamo-ipofisi-surrene e, dunque, provoca repentine alterazioni delle concentrazioni ormonali. Questa metodica offre, quindi, il vantaggio dell’estrema semplicità di raccolta del campione e, in più, il bassissimo costo del materiale utilizzato. Dalle ricerche condotte sui gatti di gattile sono scaturite preziose indicazioni per future indagini sullo stress e sul comportamento sociale felino. I risultati dell’analisi congiunta del comportamento e delle concentrazioni ormonali hanno evidenziato che la disponibilità di postazioni di marcatura visivo-feromonale ha un effetto positivo sia sugli indicatori comportamentali, sia su quelli ormonali di stress. I risultati dell’analisi delle concentrazioni di cortisolo, derivanti dal confronto tra sette oasi feline di diversa estensione spaziale hanno permesso di evidenziare un aumento dei livelli dell’ormone inversamente proporzionale allo spazio disponibile. Lo spazio disponibile, però, non è l’unico fattore da prendere in considerazione al fine di assicurare il benessere dell’animale infatti, nelle colonie che presentavano instabilità sociale e variabilità territoriale il cortisolo aveva valori elevati nonostante le notevoli disponibilità di spazio. Infine, si è potuto costatare come anche lo stare appartati, aumenti proporzionalmente con l’aumentare dello spazio. Questo comportamento risulta essere molto importante in quanto mitiga lo stress ed è da prendere in considerazione nell’allestimento di colonie feline. Infatti, nelle colonie di dimensioni ridotte dove lo stress è già alto, l’impossibilità dei soggetti di appartarsi può contribuire a peggiorare la situazione; ecco perché si dovrebbero creare luoghi artificiali per fornire ai gatti la possibilità di appartarsi, magari sfruttando gli spazi sopraelevati (tetti, alberi, ecc.). Per quanto riguarda il confronto tra cani di proprietà e cani di canile non sono state evidenziate differenze significative nei livelli di cortisolo nel pelo mentre abbiamo rilevato che quest’ultimi sono influenzati dalla disponibilità di spazio: infatti sia i cani di proprietà che vivevano in giardino, sia i cani dei canili che praticavano lo sgambamento presentavano livelli di cortisolo nel pelo più bassi rispetto, rispettivamente, ai cani di proprietà che vivevano in appartamento o appartamento/giardino e a quelli di canile che non praticavano lo sgambamento. L’arricchimento ambientale fornito ai cani di canile ha esercitato un’influenza positiva riducendo i livelli di cortisolo e migliorando la docilità dei soggetti, favorendone un’eventuale adozione. Si è inoltre messo in luce che i programmi di addestramento, eseguiti con tecniche “gentili”, non comportano situazioni stressanti per l’animale e aiutano i cani ad esprimere doti di equilibrio che rimarrebbero altrimenti celate dagli aspetti più istintivi del carattere. D’altra parte, l’impegno agonistico prima di una competizione e il livello di addestramento raggiunto dai cani, influenzano le concentrazioni di cortisolo a riposo e durante l’esercizio fisico. Questi risultati possono sicuramente dare utili suggerimenti per la gestione e la cura di gatti e cani al fine di migliorarne le condizioni di benessere.
Resumo:
SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Resumo:
La ricerca si propone d’indagare sul concetto di “congruità” riferito alle trasformazioni di specifici contesti urbani, e di definire quindi un metodo “non arbitrario” per la valutazione di opere esistenti o in progetto, al fine di riconoscerne il carattere di congruità o, al contrario, d’incongruità. Interventi d’inserimento e di trasformazione, alla scala del comparto urbanistico o anche alla scala edilizia, possono presentarsi come congrui o incongrui rispetto all’identità del luogo di appartenenza (organismo a scala urbana o territoriale). Congrua risulta l’opera che non si pone in (conclamato) contrasto rispetto ai caratteri identitari del contesto. Le definizioni d’incongruità e di opera incongrua, divengono il metro di giudizio del rapporto tra un intervento ed il suo contesto, e si applicano mediante una valutazione che sia metodologicamente fondata e verificata. La valutazione di congruità-incongruità può riferirsi a opere esistenti già realizzate, oppure a progetti di nuove opere; in questo secondo approccio il metodo di valutazione si configura come linea-guida per l’orientamento del progetto stesso in termini di congruità rispetto al contesto. In una fase iniziale la ricerca ha fissato i principi di base, con la definizione di ciò che deve intendersi per congruità e per profilo di congruità. La specifica di congruità, non potendosi basare su una consolidata letteratura (il concetto nei termini descritti è stato introdotto dalla legge 16/2002 della Regione Emilia-Romagna; la Regione stessa riconosce che il concetto è in fase di precisazione tramite sperimentazioni, studi e interventi pilota), muove dallo studio dei concetti di luogo, caratteri del luogo, identità del luogo, contesto urbano, trasformazione dell’ambiente costruito, tutela del patrimonio edilizio, sviluppo tipologico, e superfetazione incongrua. Questi concetti, pur mutuati da ambiti di ricerca affini, costituiscono i presupposti per la definizione di congruità delle trasformazioni di contesti urbani, rispetto all’identità del luogo, tramite la tutela e valorizzazione dei suoi caratteri tipologici costitutivi. Successivamente, la ricerca ha affrontato l’analisi di taluni casi-tipo di opere incongrue. A tale scopo sono stati scelti quattro casi-tipo d’interventi per rimozione di opere ritenute incongrue, indagando la metodologia di valutazione di congruità in essi applicata. Inoltre è stata sperimentata l’applicazione del metodo di valutazione per “categorie di alterazioni” tramite lo studio del centro storico di Reggio Emilia, assunto come contesto urbano campione. Lo studio analitico è sviluppato attraverso l’indagine del rapporto tra edifici e caratteri del contesto, individuando e classificando gli edifici ritenuti incongrui. Qui sono emersi i limiti del metodo di individuazione delle incongruità per categorie di alterazioni; di fatto le alterazioni definite a priori rispetto al contesto, determinano un giudizio arbitrario, in quanto disancorato dai caratteri del luogo. La definizione di ciò che è congruo o incongruo deve invece riferirsi a uno specifico contesto, e le alterazioni dei caratteri che rappresentano l’identità del luogo non possono definirsi a priori generalizzandone i concetti. Completando la ricerca nella direzione del risultato proposto, si è precisato il metodo di valutazione basato sulla coincidenza dei concetti di congruità e di pertinenza di fase, in rapporto allo sviluppo tipologico del contesto. La conoscenza del contesto nei suoi caratteri tipologici, è già metodo di valutazione: nella misura in cui sia possibile effettuare un confronto fra contesto ed opera da valutare. La valutazione non si pone come vincolo all’introduzione di nuove forme che possano rappresentare un’evoluzione dell’esistente, aggiornando il processo di sviluppo tipologico in relazione alle mutazioni del quadro esigenzialeprestazionale, ma piuttosto come barriera alle trasformazioni acritiche nei confronti del contesto, che si sovrappongano o ne cancellino inconsapevolmente i segni peculiari e identitari. In ultima analisi, ai fini dell’applicabilità dei concetti esposti, la ricerca indaga sulla convergenza tra metodo proposto e possibili procedure applicative; in questo senso chiarisce come sia auspicabile definire la congruità in relazione a procedure valutative aperte. Lo strumento urbanistico, inteso come sistema di piani alle diverse scale, è l’ambito idoneo a recepire la lettura della stratificazione dei segni indentitari rilevabili in un contesto; lettura che si attua tramite processi decisionali partecipati, al fine di estendere alla collettività la definizione d’identità culturale del luogo. La valutazione specifica di opere o progetti richiede quindi una procedura aperta, similmente alla procedura di valutazione in vigore presso le soprintendenze, basandosi sul concetto di responsabilità del progettista e del valutatore, in riferimento alla responsabilità della collettività, espressa invece nello strumento urbanistico. Infatti la valutazione di tipo oggettivo, basata sul riferimento a regolamenti o schemi precostituiti, confligge con il senso della valutazione metodologicamente fondata che, al contrario, è assunto teorico basilare della ricerca.
Resumo:
La ricerca si pone come obbiettivo principale quello di individuare gli strumenti in grado di controllare la qualità di una progettazione specifica che risponde alle forti richieste della domanda turistica di un territorio. Parte dalle più semplici teorie che inquadrano una costante condizione dell’uomo, “il VIAGGIARE”. La ricerca si pone come primo interrogativo quello definire una “dimensione” in cui le persone viaggiano, dove il concetto fisico di spazio dedicato alla vita si è spostato come e quanto si sposta la gente. Esiste una sorta di macroluogo (destinazione) che comprende tutti gli spazi dove la gente arriva e da cui spesso riparte. Pensare all'architettura dell’ospitalità significa indagare e comprendere come la casa non è più il solo luogo dove la gente abita. La ricerca affonda le proprie tesi sull’importanza dei “luoghi” appartenenti ad un territorio e come essi debbano riappropriarsi, attraverso un percorso progettuale, della loro più stretta vocazione attrattiva. Così come si sviluppa un’architettura dello stare, si manifesta un’architettura dello spostarsi e tali architetture si confondono e si integrano ad un territorio che per sua natura è esso stesso attrattivo. L’origine terminologica di nomadismo è passaggio necessario per la comprensione di una nuova dimensione architettonica legata a concetti quali mobilità e abitare. Si indaga pertanto all’interno della letteratura “diasporica”, in cui compaiono le prime configurazioni legate alla provvisorietà e alle costruzioni “erranti”. In sintesi, dopo aver posizionato e classificato il fenomeno turistico come nuova forma dell’abitare, senza il quale non si potrebbe svolgere una completa programmazione territoriale in quanto fenomeno oramai imprescindibile, la ricerca procede con l’individuazione di un ambito inteso come strumento di indagine sulle relazioni tra le diverse categorie e “tipologie” turistiche. La Riviera Romagnola è sicuramente molto famosa per la sua ospitalità e per le imponenti infrastrutture turistiche ma a livello industriale non è meno famosa per il porto di Ravenna che costituisce un punto di riferimento logistico per lo scambio di merci e materie prime via mare, oltre che essere, in tutta la sua estensione, caso di eccellenza. La provincia di Ravenna mette insieme tutti i fattori che servono a soddisfare le Total Leisure Experience, cioè esperienze di totale appagamento durante la vacanza. Quello che emerge dalle considerazioni svolte sul territorio ravennate è che il turista moderno non va più in cerca di una vacanza monotematica, in cui stare solo in spiaggia o occuparsi esclusivamente di monumenti e cultura. La richiesta è quella di un piacere procurato da una molteplicità di elementi. Pensiamo ad un distretto turistico dove l’offerta, oltre alla spiaggia o gli itinerari culturali, è anche occasione per fare sport o fitness, per rilassarsi in luoghi sereni, per gustare o acquistare cibi tipici e, allo stesso tempo, godere degli stessi servizi che una persona può avere a disposizione nella propria casa. Il percorso, finalizzato a definire un metodo di progettazione dell’ospitalità, parte dalla acquisizione delle esperienze nazionali ed internazionali avvenute negli ultimi dieci anni. La suddetta fase di ricerca “tipologica” si è conclusa in una valutazione critica che mette in evidenza punti di forza e punti di debolezza delle esperienze prese in esame. La conclusione di questa esplorazione ha prodotto una prima stesura degli “obbiettivi concettuali” legati alla elaborazione di un modello architettonico. Il progetto di ricerca in oggetto converge sul percorso tracciato dai Fiumi Uniti in Ravenna. Tale scelta consente di prendere in considerazione un parametro che mostri fattori di continuità tra costa e città, tra turismo balneare e turismo culturale, considerato quindi come potenziale strumento di connessione tra realtà spesso omologhe o complementari, in vista di una implementazione turistica che il progetto di ricerca ha come primo tra i suoi obiettivi. Il tema dell’architettura dell’ospitalità, che in questo caso si concretizza nell’idea di sperimentare l’ALBERGO DIFFUSO, è quello che permette di evidenziare al meglio la forma specifica della cultura locale, salvandone la vocazione universale. La proposta progettuale si articola in uno studio consequenziale ed organico in grado di promuovere una riflessione originale sul tema del modulo “abitativo” nei luoghi di prossimità delle emergenze territoriali di specifico interesse, attorno alle quali la crescente affluenza di un’utenza fortemente differenziata evidenzia la necessità di nodi singolari che si prestino a soddisfare una molteplicità di usi in contesti di grande pregio.
Resumo:
L’obiettivo del lavoro svolto nell’ambito del ciclo di dottorato è stato quello dell’applicazione della metodologia di analisi degli scenari, nell’ottica dello studio e applicazione di un metodo di analisi integrato e multidisciplinare che consenta individuare strategie di sviluppo sostenibile in relazione alla questione indagata. Lo studio sviluppato nel corso del dottorato è stato impostato su presupposti forniti dalla Regione Toscana (in entrambi i casi di studio trattati), che ha finanziato, attraverso la sua Agenzia Regionale per lo Sviluppo e Innovazione in ambito Agricolo (ARSIA), due Progetti di ricerca volti all’individuazione di strategie di sviluppo sostenibile concernenti due tematiche di particolare interesse in ambito regionale: lo sviluppo di coltivazioni non-food (biocarburanti, biomasse da energia, biopolimeri, biolubrificanti, fibre vegetali, coloranti naturali, fitofarmaci di origine vegetale) e la valutazione della possibilità di coesistenza tra colture convenzionali (non Geneticamente Modificate) e colture GM, in relazione alla Raccomandazione della Commissione 2003/556/CE che afferma che deve essere garantita la coesistenza tra colture transgeniche, convenzionali e biologiche, ovvero che devono essere presenti le condizioni per cui ciascun metodo di coltivazione possa poter essere adottato e praticato in UE. La sostenibilità delle situazioni studiate è stata valutata fornendo informazioni non solo per la situazioni attuali, ma anche per possibili evoluzioni future, così come richiesto dai principi dello sviluppo sostenibile. A tal proposito, occorre applicare metodologie di analisi che consentano di poter identificare obiettivi strategici in funzione dei cambiamenti che potrebbero essere registrati, in corrispondenza dell’evolversi delle diverse situazioni nel tempo. La metodologia di analisi in grado di soddisfare questi requisiti può essere identificata nell’analisi di scenario (scenario analysis), che si configura come uno strumento di analisi strategica in grado di riassumere numerose informazioni e dati riferiti agli attori, agli obiettivi, agli strumenti, alle cause ed agli effetti indotti da un cambiamento che potrebbe essere provocato da uno o più fattori contemplati nel corso dell’analisi. Questo metodo di analisi rappresenta un’importante strumento di ausilio alla definizione di politiche e strategie, che si rende particolarmente utile nel campo della public choice, come dimostrato dalle applicazioni presentate nel corso del lavoro.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
Il presente contributo prende le mosse dalla consapevolezza che i modelli lineari tradizionali sulle carriere (Super, 1980) hanno lasciato il passo a concettualizzazioni più complesse e non lineari (Cohen, Duberley & Mallon, 2004; Pryor & Bright, 2007; Richardson, 2002), argomento tra l’altro approfondito operando una disanima delle principali transizioni di carriera e dei fenomeni psicosociali ad esse correlate (Schlossberg, Waters & Goodman, 1995). Vengono affrontati temi attuali quali quelli della Globalizzazione riflessiva (Beck, 1999), della complessità e delle Flessibilità (Sennett, 1998) e se ne mette in luce le interrelazioni con il fenomeno delle carriere, ed in particolare delle dinamiche che ne hanno modificato progressivamente e radicalmente la natura nel corso degli ultimi trent’anni (Hall, 1976, 1996). È stato approfondito il tema dei nuovi percorsi di carriera, con particolare attenzione ai costrutti teorici della Protean Career (Carriera Versatile) e della Boundaryless Career (Carriera senza confini). Sono stati condotti due studi, mediante il metodo dell’inchiesta, proponendo dei questionari autosomministrabili a due gruppi di lavoratori dipendenti. La selezione degli strumenti da inserire nel protocollo, e quindi delle ipotesi da verificare è stata operata in funzione delle caratteristiche intrinseche dei due gruppi coinvolti, cercando comunque di valorizzare sempre il ruolo dei nuovi orientamenti di carriera all’interno del disegno di ricerca. Lo studio 1 è stato condotto su un gruppo di 540 lavoratori dipendenti provenienti da Sardegna e Sicilia. Facendo riferimento agli studi tradizionali sull’insicurezza lavorativa (Sverke & Hellgren, 2002), si è cercato di valutare l’eventuale effetto moderante dei nuovi orientamenti di carriera (Briscoe, Hall & Frautschy De Muth, 2006) circa gli effetti dell’insicurezza su benessere psicofisico (Goldberg, 1972) e coinvolgimento lavorativo (Schaufeli, Bakker & Salanova, 2006; Scaufeli, Salanova, Gonzalez-Romá & Bakker, 2002). I risultati hanno mostrato alcuni effetti parziali, ma d’altro canto è emerso che i medesimi orientamenti di carriera risultano significativamente e direttamente associati a variabili quali l’Autoefficacia, la Proattività, il benessere e il Coinvolgimento. Lo studio 2, riguardante un gruppo di 79 neolaureati di Palermo e provincia al primo inserimento lavorativo, è stato condotto nell’arco di 8 mesi con tre rilevazioni dati. In questo caso si è cercato di evidenziare eventuali effetti causali longitudinali degli orientamenti di carriera sulle variabili dipendenti già incluse nello studio 2. Le ipotesi espresse hanno trovato soltanto parziale conferma nei risultati.
Resumo:
Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.
Resumo:
«In altri termini mi sfuggiva e ancora oggi mi sfugge gran parte del significato dell’evoluzione del tempo; come se il tempo fosse una materia che osservo dall’esterno. Questa mancanza di evoluzione è fonte di alcune mie sventure ma anche mi appartiene con gioia.» Aldo Rossi, Autobiografia scientifica. The temporal dimension underpinning the draft of Autobiografia scientifica by Aldo Rossi may be referred to what Lucien Lévy-Bruhl, the well-known French anthropologist, defines as “primitive mentality” and “prelogical” conscience : the book of life has lost its page numbers, even punctuation. For Lévy-Bruhl, but certainly for Rossi, life or its summing up becomes a continuous account of ellipses, gaps, repetitions that may be read from left to right or viceversa, from head to foot or viceversa without distinction. Rossi’s autobiographical writing seems to accept and support the confusion with which memories have been collected, recording them after the order memory gives them in the mental distillation or simply according to the chronological order in which they have happened. For Rossi, the confusion reflects the melting of memory elements into a composite image which is the result of a fusion. He is aware that the same sap pervades all memories he is going to put in order: each of them has got a common denominator. Differences have diminished, almost faded; the quick glance is prevalent over the distinction of each episode. Rossi’s writing is beyond the categories dependent on time: past and present, before and now. For Rossi, the only repetition – the repetition the text will make possible for an indefinite number of times – gives peculiarity to the event. As Gilles Deleuze knows, “things” may only last as “singleness”: more frequent the repetition is, more singular is the memory phenomenon that recurs, because only what is singular magnifies itself and happens endlessly forever. Rossi understands that “to raise the first time to nth forever”, repetition becomes glorification . It may be an autobiography that, celebrating the originality, enhances the memory event in the repetition; in fact it greatly differs from the biographical reproduction, in which each repetition is but a weaker echo, a duller copy, provided with a smaller an smaller power in comparison with the original. Paradoxically, for Deleuze the repetition asserts the originality and singularity of what is repeated. Rossi seems to share the thought expressed by Kierkegaard in the essay Repetition: «The hope is a graceful maiden slipping through your fingers; the memory of an elderly woman, indeed pretty, but never satisfactory if necessary; the repetition is a loved friend you are never tired of, as it is only the new to make you bored. The old never bores you and its presence makes you happy [...] life is but a repetition [...] here is the beauty of life» . Rossi knows well that repetition hints at the lasting stability of cosmic time. Kierkegaard goes on: «The world exists, and it exists as a repetition» . Rossi devotes himself, on purpose and in all conscience, to collect, to inventory and «to review life», his own life, according to a recovery not from the past but of the past: a search work, the «recherche du temps perdu», as Proust entitled his masterpiece on memory. If you want the past time to be not wasted, you must give it presence. «Memoria e specifico come caratteristiche per riconoscere se stesso e ciò che è estraneo mi sembravano le più chiare condizioni e spiegazioni della realtà. Non esiste uno specifico senza memoria, e una memoria che non provenga da un momento specifico; e solo questa unione permette la conoscenza della propria individualità e del contrario (self e non-self)» . Rossi wants to understand himself, his own character; it is really his own character that requires to be understood, to increase its own introspective ability and intelligence. «Può sembrare strano che Planck e Dante associno la loro ricerca scientifica e autobiografica con la morte; una morte che è in qualche modo continuazione di energia. In realtà, in ogni artista o tecnico, il principio della continuazione dell’energia si mescola con la ricerca della felicità e della morte» . The eschatological incipit of Rossi’s autobiography refers to Freud’s thought in the exact circularity of Dante’s framework and in as much exact circularity of the statement of the principle of the conservation of energy: in fact it was Freud to connect repetition to death. For Freud, the desire of repetition is an instinct rooted in biology. The primary aim of such an instinct would be to restore a previous condition, so that the repeated history represents a part of the past (even if concealed) and, relieving the removal, reduces anguish and tension. So, Freud ask himself, what is the most remote state to which the instinct, through the repetition, wants to go back? It is a pre-vital condition, inorganic of the pure entropy, a not-to-be condition in which doesn’t exist any tension; in other words, Death. Rossi, with the theme of death, introduces the theme of circularity which further on refers to the sense of continuity in transformation or, in the opposite way, the transformation in continuity. «[...] la descrizione e il rilievo delle forme antiche permettevano una continuità altrimenti irripetibile, permettevano anche una trasformazione, una volta che la vita fosse fermata in forme precise» . Rossi’s attitude seems to hint at the reflection on time and – in a broad sense – at the thought on life and things expressed by T.S. Eliot in Four Quartets: «Time present and time past / Are both perhaps present in time future, / And time future is contained in time past. / I all time is eternally present / All time is unredeemable. / What might have been is an abstraction / Remaining perpetual possibility / Only in a word of speculation. / What might have been and what has been / Point to one end, which is always present. [...]» . Aldo Rossi’s autobiographical story coincides with the description of “things” and the description of himself through the things in the exact parallel with craft or art. He seems to get all things made by man to coincide with the personal or artistic story, with the consequent immediate necessity of formulating a new interpretation: the flow of things has never met a total stop; all that exists nowadays is but a repetition or a variant of something existing some time ago and so on, without any interruption until the early dawnings of human life. Nevertheless, Rossi must operate specific subdivisions inside the continuous connection in time – of his time – even if limited by a present beginning and end of his own existence. This artist, as an “historian” of himself and his own life – as an auto-biographer – enjoys the privilege to be able to decide if and how to operate the cutting in a certain point rather than in another one, without being compelled to justify his choice. In this sense, his story is a matter very ductile and flexible: a good story-teller can choose any moment to start a certain sequence of events. Yet, Rossi is aware that, beyond the mere narration, there is the problem to identify in history - his own personal story – those flakings where a clean cut enables the separation of events of different nature. In order to do it, he has to make not only an inventory of his own “things”, but also to appeal to authority of the Divina Commedia started by Dante when he was 30. «A trent’anni si deve compiere o iniziare qualcosa di definitivo e fare i conti con la propria formazione» . For Rossi, the poet performs his authority not only in the text, but also in his will of setting out on a mystical journey and handing it down through an exact descriptive will. Rossi turns not only to the authority of poetry, but also evokes the authority of science with Max Plank and his Scientific Autobiography, published, in Italian translation, by Einaudi, 1956. Concerning Planck, Rossi resumes an element seemingly secondary in hit account where the German physicist «[...] risale alle scoperte della fisica moderna ritrovando l’impressione che gli fece l’enunciazione del principio di conservazione dell’energia; [...]» . It is again the act of describing that links Rossi to Planck, it is the description of a circularity, the one of conservation of energy, which endorses Rossi’s autobiographical speech looking for both happiness and death. Rossi seems to agree perfectly to the thought of Planck at the opening of his own autobiography: «The decision to devote myself to science was a direct consequence of a discovery which was never ceased to arouse my enthusiasm since my early youth: the laws of human thought coincide with the ones governing the sequences of the impressions we receive from the world surrounding us, so that the mere logic can enable us to penetrate into the latter one’s mechanism. It is essential that the outer world is something independent of man, something absolute. The search of the laws dealing with this absolute seems to me the highest scientific aim in life» . For Rossi the survey of his own life represents a way to change the events into experiences, to concentrate the emotion and group them in meaningful plots: «It seems, as one becomes older. / That the past has another pattern, and ceases to be a mere sequence [...]» Eliot wrote in Four Quartet, which are a meditation on time, old age and memory . And he goes on: «We had the experience but missed the meaning, / And approach to the meaning restores the experience / In a different form, beyond any meaning [...]» . Rossi restores in his autobiography – but not only in it – the most ancient sense of memory, aware that for at least 15 centuries the Latin word memoria was used to show the activity of bringing back images to mind: the psychology of memory, which starts with Aristotele (De Anima), used to consider such a faculty totally essential to mind. Keith Basso writes: «The thought materializes in the form of “images”» . Rossi knows well – as Aristotele said – that if you do not have a collection of mental images to remember – imagination – there is no thought at all. According to this psychological tradition, what today we conventionally call “memory” is but a way of imagining created by time. Rossi, entering consciously this stream of thought, passing through the Renaissance ars memoriae to reach us gives a great importance to the word and assumes it as a real place, much more than a recollection, even more than a production and an emotional elaboration of images.