161 resultados para CFRP, Cicli termici, Caratterizzazione statica
Resumo:
I sottotipi H1N1, H1N2 e H3N2 di influenza A virus sono largamente diffusi nella popolazione suina di tutto il mondo. Nel presente lavoro è stato sviluppato un protocollo di sequenziamento di c.d. nuova generazione, su piattaforma Ion Torrent PGM, idoneo per l’analisi di tutti i virus influenzali suini (SIV). Per valutare l’evoluzione molecolare dei SIV italiani, sono stati sequenziati ed analizzati mediante analisi genomica e filogenetica un totale di sessantadue ceppi di SIV appartenenti ai sottotipi H1N1, H1N2 e H3N2, isolati in Italia dal 1998 al 2014. Sono stati evidenziati in sei campioni due fenomeni di riassortimento: tutti i SIV H1N2 esaminati presentavano una neuraminidasi di derivazione umana, diversa da quella dei SIV H1N2 circolanti in Europa, inoltre l’emoagglutinina (HA) di due isolati H1N2 era originata dal riassortimento con un SIV H1N1 avian-like. L’analisi molecolare dell’HA ha permesso di rivelare un’inserzione di due amminoacidi in quattro SIV H1N1 pandemici e una delezione di due aminoacidi in quattro SIV H1N2, entrambe a livello del sito di legame con il recettore cellulare. E’ stata inoltre evidenziata un’elevata omologia di un SIV H1N1 con ceppi europei isolati negli anni ’80, suggerendo la possibile origine vaccinale di questo virus. E’ stato possibile, in aggiunta, applicare il nuovo protocollo sviluppato per sequenziare un virus influenzale aviare altamente patogeno trasmesso all’uomo, direttamente da campione biologico. La diversità genetica nei SIV esaminati in questo studio conferma l’importanza di un continuo monitoraggio della costellazione genomica dei virus influenzali nella popolazione suina.
Resumo:
La Fusariosi della spiga (FDS) è una fitopatia diffusa a livello mondiale che colpisce le colture cerealicole, tra cui il frumento duro, ed è in grado di causare gravi danni di tipo qualitativo ed economico. Le specie fungine responsabili appartengono al genere Fusarium, tra cui F. graminearum, F. culmorum e più recentemente F. poae. La conseguenza più rilevante riguarda la contaminazione della granella da micotossine, molecole prodotte dai miceti, considerate dalla comunità scientifica ad alto rischio per la salute dell’uomo e animali. L’eziologia è molto complessa, dal momento che su una stessa spiga di frumento possono coesistere più specie fungine che contribuiscono ad influenzare i quantitativi di micotossine prodotte. Lo scopo della ricerca è incentrato sulla caratterizzazione di ceppi di F. poae, in termini di potenziale patogeno e aggressività. Tramite l’allestimento di un saggio di inoculazione in vitro “Petri-dish” è stato possibile attribuire un indice di aggressività a ciascun isolato fungino, basato su parametri quali AUHPC e AUDPC standard, insieme ad altre variabili come la riduzione della lunghezza del coleottile e del tasso di germinazione. Il saggio è stato esteso anche a F. culmorum, per valutare la riproducibilità del test su altre specie fungine. Il test in vitro offre diversi vantaggi, tra cui affidabilità e rapidità di esecuzione ed è quindi adatto allo screening di ceppi patogeni da utilizzare in successive sperimentazioni. Gli stessi ceppi di F. poae, provenienti da una prova di inoculazione artificiale in serra su piante di frumento duro, sono stati caratterizzati dal punto di vista bio-molecolare. Poichè lo studio della fusariosi della spiga richiede la determinazione quantitativa della biomassa dei patogeni nei tessuti della pianta-ospite, anche in assenza di sintomi, il protocollo di Real-Time PCR con chimica SYBR® Green I qui sviluppato, ha dimostrato essere un buon compromesso tra attendibilità, rapidità e costi complessivi della metodica.
Resumo:
L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.
Resumo:
Il mar Mediterraneo è un bacino acquifero peculiare per la recente colonizzazione di specie aliene, per l’evento geologico legato alla Crisi di salinità del Messiniano e per l’ampio range di salinità. L’individuazione dei meccanismi di colonizzazione si è incentrata sullo studio morfologico, istologico e molecolare delle specie Asperarca nodulosa ed Anadara demiri (Arcidae-Bivalvia-Mollusca). La ricerca si è basata sulla caratterizzazione morfologica, con utilizzo del microscopio elettronico a scansione, al fine di individuare il tipo di sviluppo larvale. Successivamente i dati rilevati al S.E.M. sono stati supportati dall’indagine istologica che ha evidenziato la presenza di gonadi a sessi distinti e la non incubazione larvale. L’ulteriore analisi filogenetica ha permesso di evidenziare la netta suddivisione tra le tre popolazioni studiate, indagine effettuata tramite marcatori arbitrari (RAPDs) e nucleari specifici (ITS). I risultati ottenuti trovano supporto da quanto noto su base morfologica. I dati, nel complesso, mostrano una perdita delle capacità di diffusione della specie tramite sviluppo larvale plantotrofico a favore di quello lecitotrofico o diretto; tale tesi è ulteriormente supportata dai dati molecolari che mostrano una netta separazione delle popolazioni prese in esame ed un conseguente isolamento tra individui appartenenti a zone di profondità del Mediterraneo (sub-bacini abissali). La ricerca ha, inoltre,esaminato i meccanismi di introduzione attuali nel bacino acquifero che è soggetto ad una nuova invasione da parte specie aliene dovuta all’apertura del canale di Suez. L’analisi si è focalizzata sullo studio per l’ individuazione dell’origine della specie aliena A. demiri , di presunta derivazione Indo-Pacifica, ma rivelatasi, nei dati preliminari, di origine Atlantica.
Resumo:
SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.
Resumo:
Numerosi parassitoidi localizzano i propri ospiti sfruttando le miscele di composti volatili rilasciate dalle piante infestate, che sono segnali più facilmente reperibili nell’ambiente rispetto agli odori emessi dai soli fitofagi. Anche Diglyphus isaea (Walker), un ectoparassitoide paleartico impiegato nella lotta biologica contro vari fillominatori, localizza l’ospite Liriomyza trifolii (Burgess) (Diptera Agromyzidae) sfruttando gli odori emessi dal complesso pianta (Phaseolus vulgaris L.) – minatore (L. trifolii). L’obbiettivo di questa ricerca è stato di mettere a punto una procedura che consentisse di estrarre in vivo, da piante di fagiolo infestate da larve di L. trifolii, i composti volatili responsabili dell’attrazione del parassitoide D. isaea e permettesse di individuare i composti biologicamente attivi presenti nella miscela. A tal fine sono state messe a confronto due metodologie, ovvero la tecnica statica dell’SPME e quella dinamica dell’Air Entrainment, impiegate in ecologia chimica per identificare e quantificare i composti organici volatili da numerose matrici biologiche. Le miscele estratte dai campioni sono state sia analizzate al gascromatografo/spettrometro di massa, che saggiate all’olfattometro a Y. Alla luce dei risultati ottenuti, si può affermare che la tecnica dell’Air Entrainment si è rivelata più adatta al raggiungimento degli obbiettivi di questo studio. Grazie a questa metodologia infatti è stato possibile verificare l’attività biologica delle miscele estratte nei confronti di D. isaea e identificare i composti volatili imputabili, con buona probabilità, unicamente all’attività trofica del fillominatore. Si tratta principalmente di terpenoidi volatili, sostanze spesso indicate come importanti segnali utilizzati da predatori e parassitoidi per localizzare le proprie prede o i propri ospiti. Questi composti sono stati diluiti in etere e saggiati a tre diverse concentrazioni (1 ng; 10 ng; 100 ng) contro l’etere (controllo). L’analisi statistica delle differenze registrate nelle scelte definitive compiute da D. isaea, nel corso delle prove condotte con i composti puri (indolo; α-copaene; β-cariofillene; α-cariofillene; α-farnesene), ha messo in luce come questo parassitoide risulti attratto solo dall’α-cariofillene, mentre l’α-farnesene sembra avere nei confronti dell’eulofide un effetto repellente.
Resumo:
Call me Ismail. Così inizia notoriamente il celebre romanzo di Herman Melville, Moby Dick. In un altro racconto, ambientato nel 1797, anno del grande ammutinamento della flotta del governo inglese, Melville dedica un breve accenno a Thomas Paine. Il racconto è significativo di quanto – ancora nella seconda metà dell’Ottocento – l’autore di Common Sense e Rights of Man sia sinonimo delle possibilità radicalmente democratiche che l’ultima parte del Settecento aveva offerto. Melville trova in Paine la chiave per dischiudere nel presente una diversa interpretazione della rivoluzione: non come una vicenda terminata e confinata nel passato, ma come una possibilità che persiste nel presente, “una crisi mai superata” che viene raffigurata nel dramma interiore del gabbiere di parrocchetto, Billy Budd. Il giovane marinaio della nave mercantile chiamata Rights of Man mostra un’attitudine docile e disponibile all’obbedienza, che lo rende pronto ad accettare il volere dei superiori. Billy non contesta l’arruolamento forzato nella nave militare. Nonostante il suo carattere affabile, non certo irascibile, l’esperienza in mare sulla Rights of Man rappresenta però un peccato difficile da espiare: il sospetto è più forte della ragionevolezza, specie quando uno spettro di insurrezione continua ad aggirarsi nella flotta di sua maestà. Così, quando, imbarcato in una nave militare della flotta inglese, con un violento pugno Billy uccide l’uomo che lo accusa di tramare un nuovo ammutinamento, il destino inevitabile è quello di un’esemplare condanna a morte. Una condanna che, si potrebbe dire, mostra come lo spettro della rivoluzione continui ad agitare le acque dell’oceano Atlantico. Nella Prefazione Melville fornisce una chiave di lettura per accedere al testo e decifrare il dramma interiore del marinaio: nella degenerazione nel Terrore, la vicenda francese indica una tendenza al tradimento della rivoluzione, che è così destinata a ripetere continuamente se stessa. Se “la rivoluzione si trasformò essa stessa in tirannia”, allora la crisi segna ancora la società atlantica. Non è però alla classica concezione del tempo storico – quella della ciclica degenerazione e rigenerazione del governo – che Melville sembra alludere. Piuttosto, la vicenda rivoluzionaria che ha investito il mondo atlantico ha segnato un radicale punto di cesura con il passato: la questione non è quella della continua replica della storia, ma quella del continuo circolare dello “spirito rivoluzionario”, come dimostra nell’estate del 1797 l’esperienza di migliaia di marinai che tra grida di giubilo issano sugli alberi delle navi i colori britannici da cui cancellano lo stemma reale e la croce, abolendo così d’un solo colpo la bandiera della monarchia e trasformando il mondo in miniatura della flotta di sua maestà “nella rossa meteora di una violenta e sfrenata rivoluzione”. Raccontare la vicenda di Billy riporta alla memoria Paine. L’ammutinamento è solo un frammento di un generale spirito rivoluzionario che “l’orgoglio nazionale e l’opinione politica hanno voluto relegare nello sfondo della storia”. Quando Billy viene arruolato, non può fare a meno di portare con sé l’esperienza della Rights of Man. Su quel mercantile ha imparato a gustare il dolce sapore del commercio insieme all’asprezza della competizione sfrenata per il mercato, ha testato la libertà non senza subire la coercizione di un arruolamento forzato. La vicenda di Billy ricorda allora quella del Paine inglese prima del grande successo di Common Sense, quando muove da un’esperienza di lavoro all’altra in modo irrequieto alla ricerca di felicità – dal mestiere di artigiano all’avventura a bordo di un privateer inglese durante la guerra dei sette anni, dalla professione di esattore fiscale alle dipendenze del governo, fino alla scelta di cercare fortuna in America. Così come Paine rivendica l’originalità del proprio pensiero, il suo essere un autodidatta e le umili origini che gli hanno impedito di frequentare le biblioteche e le accademie inglesi, anche Billy ha “quel tipo e quel grado di intelligenza che si accompagna alla rettitudine non convenzionale di ogni integra creatura umana alla quale non sia ancora stato offerto il dubbio pomo della sapienza”. Così come il pamphlet Rights of man porta alla virtuale condanna a morte di Paine – dalla quale sfugge trovando rifugio a Parigi – allo stesso modo il passato da marinaio sulla Rights of Man porta al processo per direttissima che sentenzia la morte per impiccagione del giovane marinaio. Il dramma interiore di Billy replica dunque l’esito negativo della rivoluzione in Europa: la rivoluzione è in questo senso come un “violento accesso di febbre contagiosa”, destinato a scomparire “in un organismo costituzionalmente sano, che non tarderà a vincerla”. Non viene però meno la speranza: quella della rivoluzione sembra una storia senza fine perché Edward Coke e William Blackstone – i due grandi giuristi del common law inglese che sono oggetto della violenta critica painita contro la costituzione inglese – “non riescono a far luce nei recessi oscuri dell’animo umano”. Rimane dunque uno spiraglio, un angolo nascosto dal quale continua a emergere uno spirito rivoluzionario. Per questo non esistono cure senza effetti collaterali, non esiste ordine senza l’ipoteca del ricorso alla forza contro l’insurrezione: c’è chi come l’ufficiale che condanna Billy diviene baronetto di sua maestà, c’è chi come Billy viene impiccato, c’è chi come Paine viene raffigurato come un alcolizzato e impotente, disonesto e depravato, da relegare sul fondo della storia atlantica. Eppure niente più del materiale denigratorio pubblicato contro Paine ne evidenzia il grande successo. Il problema che viene sollevato dalle calunniose biografie edite tra fine Settecento e inizio Ottocento è esattamente quello del trionfo dell’autore di Common Sense e Rights of Man nell’aver promosso, spiegato e tramandato la rivoluzione come sfida democratica che è ancora possibile vincere in America come in Europa. Sono proprio le voci dei suoi detrattori – americani, inglesi e francesi – a mostrare che la dimensione nella quale è necessario leggere Paine è quella del mondo atlantico. Assumendo una prospettiva atlantica, ovvero ricostruendo la vicenda politica e intellettuale di Paine da una sponda all’altra dell’oceano, è possibile collegare ciò che Paine dice in spazi e tempi diversi in modo da segnalare la presenza costante sulla scena politica di quei soggetti che – come i marinai protagonisti dell’ammutinamento – segnalano il mancato compimento delle speranze aperte dall’esperienza rivoluzionaria. Limitando la ricerca al processo di costruzione della nazione politica, scegliendo di riassumerne il pensiero politico nell’ideologia americana, nella vicenda costituzionale francese o nel contesto politico inglese, le ricerche su Paine non sono riuscite fino in fondo a mostrare la grandezza di un autore che risulta ancora oggi importante: la sua produzione intellettuale è talmente segnata dalle vicende rivoluzionarie che intessono la sua biografia da fornire la possibilità di studiare quel lungo periodo di trasformazione sociale e politica che investe non una singola nazione, ma l’intero mondo atlantico nel corso della rivoluzione. Attraverso Paine è allora possibile superare quella barriera che ha diviso il dibattito storiografico tra chi ha trovato nella Rivoluzione del 1776 la conferma del carattere eccezionale della nazione americana – fin dalla sua origine rappresentata come esente dalla violenta conflittualità che invece investe il vecchio continente – e chi ha relegato il 1776 a data di secondo piano rispetto al 1789, individuando nell’illuminismo la presunta superiorità culturale europea. Da una sponda all’altra dell’Atlantico, la storiografia ha così implicitamente alzato un confine politico e intellettuale tra Europa e America, un confine che attraverso Paine è possibile valicare mostrandone la debolezza. Parlando di prospettiva atlantica, è però necessario sgombrare il campo da possibili equivoci: attraverso Paine, non intendiamo stabilire l’influenza della Rivoluzione americana su quella francese, né vogliamo mostrare l’influenza del pensiero politico europeo sulla Rivoluzione americana. Non si tratta cioè di stabilire un punto prospettico – americano o europeo – dal quale leggere Paine. L’obiettivo non è quello di sottrarre Paine agli americani per restituirlo agli inglesi che l’hanno tradito, condannandolo virtualmente a morte. Né è quello di confermare l’americanismo come suo unico lascito culturale e politico. Si tratta piuttosto di considerare il mondo atlantico come l’unico scenario nel quale è possibile leggere Paine. Per questo, facendo riferimento al complesso filone storiografico dell’ultimo decennio, sviluppato in modo diverso da Bernard Bailyn a Markus Rediker e Peter Linebaugh, parliamo di rivoluzione atlantica. Certo, Paine vede fallire nell’esperienza del Terrore quella rivoluzione che in America ha trionfato. Ciò non costituisce però un elemento sufficiente per riproporre l’interpretazione arendtiana della rivoluzione che, sulla scorta della storiografia del consenso degli anni cinquanta, ma con motivi di fascino e interesse che non sempre ritroviamo in quella storiografia, ha contribuito ad affermare un ‘eccezionalismo’ americano anche in Europa, rappresentando gli americani alle prese con il problema esclusivamente politico della forma di governo, e i francesi impegnati nel rompicapo della questione sociale della povertà. Rompicapo che non poteva non degenerare nella violenza francese del Terrore, mentre l’America riusciva a istituire pacificamente un nuovo governo rappresentativo facendo leva su una società non conflittuale. Attraverso Paine, è infatti possibile mostrare come – sebbene con intensità e modalità diverse – la rivoluzione incida sul processo di trasformazione commerciale della società che investe l’intero mondo atlantico. Nel suo andirivieni da una sponda all’altra dell’oceano, Paine non ragiona soltanto sulla politica – sulla modalità di organizzare una convivenza democratica attraverso la rappresentanza, convivenza che doveva trovare una propria legittimazione nel primato della costituzione come norma superiore alla legge stabilita dal popolo. Egli riflette anche sulla società commerciale, sui meccanismi che la muovono e le gerarchie che la attraversano, mostrando così precise linee di continuità che tengono insieme le due sponde dell’oceano non solo nella circolazione del linguaggio politico, ma anche nella comune trasformazione sociale che investe i termini del commercio, del possesso della proprietà e del lavoro, dell’arricchimento e dell’impoverimento. Con Paine, America e Europa non possono essere pensate separatamente, né – come invece suggerisce il grande lavoro di Robert Palmer, The Age of Democratic Revolution – possono essere inquadrate dentro un singolo e generale movimento rivoluzionario essenzialmente democratico. Emergono piuttosto tensioni e contraddizioni che investono il mondo atlantico allontanando e avvicinando continuamente le due sponde dell’oceano come due estremità di un elastico. Per questo, parliamo di società atlantica. Quanto detto trova conferma nella difficoltà con la quale la storiografia ricostruisce la figura politica di Paine dentro la vicenda rivoluzionaria americana. John Pocock riconosce la difficoltà di comprendere e spiegare Paine, quando sostiene che Common Sense non evoca coerentemente nessun prestabilito vocabolario atlantico e la figura di Paine non è sistemabile in alcuna categoria di pensiero politico. Partendo dal paradigma classico della virtù, legata antropologicamente al possesso della proprietà terriera, Pocock ricostruisce la permanenza del linguaggio repubblicano nel mondo atlantico senza riuscire a inserire Common Sense e Rights of Man nello svolgimento della rivoluzione. Sebbene non esplicitamente dichiarata, l’incapacità di comprendere il portato innovativo di Common Sense, in quella che è stata definita sintesi repubblicana, è evidente anche nel lavoro di Bernard Bailyn che spiega come l’origine ideologica della rivoluzione, radicata nella paura della cospirazione inglese contro la libertà e nel timore della degenerazione del potere, si traduca ben presto in un sentimento fortemente contrario alla democrazia. Segue questa prospettiva anche Gordon Wood, secondo il quale la chiamata repubblicana per l’indipendenza avanzata da Paine non parla al senso comune americano, critico della concezione radicale del governo rappresentativo come governo della maggioranza, che Paine presenta quando partecipa al dibattito costituzionale della Pennsylvania rivoluzionaria. Paine è quindi considerato soltanto nelle risposte repubblicane dei leader della guerra d’indipendenza che temono una possibile deriva democratica della rivoluzione. Paine viene in questo senso dimenticato. La sua figura è invece centrale della nuova lettura liberale della rivoluzione: Joyce Appleby e Isaac Kramnick contestano alla letteratura repubblicana di non aver compreso che la separazione tra società e governo – la prima intesa come benedizione, il secondo come male necessario – con cui si apre Common Sense rappresenta il tentativo riuscito di cogliere, spiegare e tradurre in linguaggio politico l’affermazione del capitalismo. In particolare, Appleby critica efficacemente il concetto d’ideologia proposto dalla storiografia repubblicana, perché presuppone una visione statica della società. L’affermazione del commercio fornirebbe invece quella possibilità di emancipazione attraverso il lavoro libero, che Paine coglie perfettamente promuovendo una visione della società per la quale il commercio avrebbe permesso di raggiungere la libertà senza il timore della degenerazione della rivoluzione nel disordine. Questa interpretazione di Paine individua in modo efficace un aspetto importante del suo pensiero politico, la sua profonda fiducia nel commercio come strumento di emancipazione e progresso. Tuttavia, non risulta essere fino in fondo coerente e pertinente, se vengono prese in considerazione le diverse agende politiche avanzate in seguito alla pubblicazione di Common Sense e di Rights of Man, né sembra reggere quando prendiamo in mano The Agrarian Justice (1797), il pamphlet nel quale Paine mette in discussione la sua profonda fiducia nel progresso della società commerciale. Diverso è il Paine che emerge dalla storiografia bottom-up, secondo la quale la rivoluzione non può più essere ridotta al momento repubblicano o all’affermazione senza tensione del liberalismo: lo studio della rivoluzione deve essere ampliato fino a comprendere quell’insieme di pratiche e discorsi che mirano all’incisiva trasformazione dell’esistente slegando il diritto di voto dalla qualifica proprietaria, perseguendo lo scopo di frenare l’accumulazione di ricchezza nelle mani di pochi con l’intento di ordinare la società secondo una logica di maggiore uguaglianza. Come dimostrano Eric Foner e Gregory Claeys, attraverso Paine è allora possibile rintracciare, sulla sponda americana come su quella inglese dell’Atlantico, forti pretese democratiche che non sembrano riducibili al linguaggio liberale, né a quello repubblicano. Paine viene così sottratto a rigide categorie storiografiche che per troppo tempo l’hanno consegnato tout court all’elogio del campo liberale o al silenzio di quello repubblicano. Facendo nostra la metodologia di ricerca elaborata dalla storiografia bottom-up per tenere insieme storia sociale e storia intellettuale, possiamo allora leggere Paine non solo per parlare di rivoluzione atlantica, ma anche di società atlantica: società e politica costituiscono un unico orizzonte d’indagine dal quale esce ridimensionata l’interpretazione della rivoluzione come rivoluzione esclusivamente politica, che – sebbene in modo diverso – tanto la storiografia repubblicana quanto quella liberale hanno rafforzato, alimentando indirettamente l’eccezionale successo americano contro la clamorosa disfatta europea. Entrambe le sponde dell’Atlantico mostrano una società in transizione: la costruzione della finanza nazionale con l’istituzione del debito pubblico e la creazione delle banche, la definizione delle forme giuridiche che stabiliscono modalità di possesso e impiego di proprietà e lavoro, costituiscono un complesso strumentario politico necessario allo sviluppo del commercio e al processo di accumulazione di ricchezza. Per questo, la trasformazione commerciale della società è legata a doppio filo con la rivoluzione politica. Ricostruire il modo nel quale Paine descrive e critica la società da una sponda all’altra dell’Atlantico mostra come la separazione della società dal governo non possa essere immediatamente interpretata come essenza del liberalismo economico e politico. La lettura liberale rappresenta senza ombra di dubbio un salto di qualità nell’interpretazione storiografica perché spiega in modo convincente come Paine traduca in discorso politico il passaggio da una società fortemente gerarchica come quella inglese, segnata dalla condizione di povertà e miseria comune alle diverse figure del lavoro, a una realtà sociale come quella americana decisamente più dinamica, dove il commercio e le terre libere a ovest offrono ampie possibilità di emancipazione e arricchimento attraverso il lavoro libero. Tuttavia, leggendo The Case of Officers of Excise (1772) e ricostruendo la sua attività editoriale alla guida del Pennsylvania Magazine (1775) è possibile giungere a una conclusione decisamente più complessa rispetto a quella suggerita dalla storiografia liberale: il commercio non sembra affatto definire una qualità non conflittuale del contesto atlantico. Piuttosto, nonostante l’assenza dell’antico ordine ‘cetuale’ europeo, esso investe la società di una tendenza alla trasformazione, la cui direzione, intensità e velocità dipendono anche dall’esito dello scontro politico in atto dentro la rivoluzione. Spostando l’attenzione su figure sociali che in quella letteratura sono di norma relegate in secondo piano, Paine mira infatti a democratizzare la concezione del commercio indicando nell’indipendenza personale la condizione comune alla quale poveri e lavoratori aspirano: per chi è coinvolto in prima persona nella lotta per l’indipendenza, la visione della società non indica allora un ordine naturale, dato e immutabile, quanto una scommessa sul futuro, un ideale che dovrebbe avviare un cambiamento sociale coerente con le diverse aspettative di emancipazione. Senza riconoscere questa valenza democratica del commercio non è possibile superare il consenso come presupposto incontestabile della Rivoluzione americana, nel quale tanto la storiografia repubblicana quanto quella librale tendono a cadere: non è possibile superare l’immagine statica della società americana, implicitamente descritta dalla prima, né andare oltre la visione di una società dinamica, ma priva di gerarchie e oppressione, come quella delineata dalla seconda. Le entusiastiche risposte e le violente critiche in favore e contro Common Sense, la dura polemica condotta in difesa o contro la costituzione radicale della Pennsylvania, la diatriba politica sul ruolo dei ricchi mercanti mostrano infatti una società in transizione lungo linee che sono contemporaneamente politiche e sociali. Dentro questo contesto conflittuale, repubblicanesimo e liberalismo non sembrano affatto competere l’uno contro l’altro per esercitare un’influenza egemone nella costruzione del governo rappresentativo. Vengono piuttosto mescolati e ridefiniti per rispondere alla pretese democratiche che provengono dalla parte bassa della società. Common Sense propone infatti un piano politico per l’indipendenza del tutto innovativo rispetto al modo nel quale le colonie hanno fino a quel momento condotto la controversia con la madre patria: la chiamata della convenzione rappresentativa di tutti gli individui per scrivere una nuova costituzione assume le sembianze di un vero e proprio potere costituente. Con la mobilitazione di ampie fasce della popolazione per vincere la guerra contro gli inglesi, le élite mercantili e proprietarie perdono il monopolio della parola e il processo decisionale è aperto anche a coloro che non hanno avuto voce nel governo coloniale. La dottrina dell’indipendenza assume così un carattere democratico. Paine non impiega direttamente il termine, tuttavia le risposte che seguono la pubblicazione di Common Sense lanciano esplicitamente la sfida della democrazia. Ciò mostra come la rivoluzione non possa essere letta semplicemente come affermazione ideologica del repubblicanesimo in continuità con la letteratura d’opposizione del Settecento britannico, o in alternativa come transizione non conflittuale al liberalismo economico e politico. Essa risulta piuttosto comprensibile nella tensione tra repubblicanesimo e democrazia: se dentro la rivoluzione (1776-1779) Paine contribuisce a democratizzare la società politica americana, allora – ed è questo un punto importante, non sufficientemente chiarito dalla storiografia – il recupero della letteratura repubblicana assume il carattere liberale di una strategia tesa a frenare le aspettative di chi considera la rivoluzione politica come un mezzo per superare la condizione di povertà e le disuguaglianze che pure segnano la società americana. La dialettica politica tra democrazia e repubblicanesimo consente di porre una questione fondamentale per comprendere la lunga vicenda intellettuale di Paine nella rivoluzione atlantica e anche il rapporto tra trasformazione sociale e rivoluzione politica: è possibile sostenere che in America la congiunzione storica di processo di accumulazione di ricchezza e costruzione del governo rappresentativo pone la società commerciale in transizione lungo linee capitalistiche? Questa non è certo una domanda che Paine pone esplicitamente, né in Paine troviamo una risposta esaustiva. Tuttavia, la sua collaborazione con i ricchi mercanti di Philadelphia suggerisce una valida direzione di indagine dalla quale emerge che il processo di costruzione del governo federale è connesso alla definizione di una cornice giuridica entro la quale possa essere realizzata l’accumulazione del capitale disperso nelle periferie dell’America indipendente. Paine viene così coinvolto in un frammentato e dilatato scontro politico dove – nonostante la conclusione della guerra contro gli inglesi nel 1783 – la rivoluzione non sembra affatto conclusa perché continua a muovere passioni che ostacolano la costruzione dell’ordine: leggere Paine fuori dalla rivoluzione (1780-1786) consente paradossalmente di descrivere la lunga durata della rivoluzione e di considerare la questione della transizione dalla forma confederale a quella federale dell’unione come un problema di limiti della democrazia. Ricostruire la vicenda politica e intellettuale di Paine in America permette infine di evidenziare un ambiguità costitutiva della società commerciale dentro la quale il progetto politico dei ricchi mercanti entra in tensione con un’attitudine popolare critica del primo processo di accumulazione che rappresenta un presupposto indispensabile all’affermazione del capitalismo. La rivoluzione politica apre in questo senso la società commerciale a una lunga e conflittuale transizione verso il capitalismo Ciò risulta ancora più evidente leggendo Paine in Europa (1791-1797). Da una sponda all’altra dell’Atlantico, con Rights of Man egli esplicita ciò che in America ha preferito mantenere implicito, pur raccogliendo la sfida democratica lanciata dai friend of Common Sense: il salto in avanti che la rivoluzione atlantica deve determinare nel progresso dell’umanità è quello di realizzare la repubblica come vera e propria democrazia rappresentativa. Tuttavia, il fallimento del progetto politico di convocare una convenzione nazionale in Inghilterra e la degenerazione dell’esperienza repubblicana francese nel Terrore costringono Paine a mettere in discussione quella fiducia nel commercio che la storiografia liberale ha con grande profitto mostrato: il mancato compimento della rivoluzione in Europa trova infatti spiegazione nella temporanea impossibilità di tenere insieme democrazia rappresentativa e società commerciale. Nel contesto europeo, fortemente disgregato e segnato da durature gerarchie e forti disuguaglianze, con The Agrarian Justice, Paine individua nel lavoro salariato la causa del contraddittorio andamento – di arricchimento e impoverimento – dello sviluppo economico della società commerciale. La tendenza all’accumulazione non è quindi l’unica qualità della società commerciale in transizione. Attraverso Paine, possiamo individuare un altro carattere decisivo per comprendere la trasformazione sociale, quello dell’affermazione del lavoro salariato. Non solo in Europa. Al ritorno in America, Paine non porta con sé la critica della società commerciale. Ciò non trova spiegazione esclusivamente nel minor grado di disuguaglianza della società americana. Leggendo Paine in assenza di Paine (1787-1802) – ovvero ricostruendo il modo nel quale dall’Europa egli discute, critica e influenza la politica americana – mostreremo come la costituzione federale acquisisca gradualmente la supremazia sulla conflittualità sociale. Ciò non significa che l’America indipendente sia caratterizzata da un unanime consenso costituzionale. Piuttosto, è segnata da un lungo e tortuoso processo di stabilizzazione che esclude la democrazia dall’immediato orizzonte della repubblica americana. Senza successo, Paine torna infatti a promuovere una nuova sfida democratica come nella Pennsylvania rivoluzionaria degli anni settanta. E’ allora possibile vedere come la rivoluzione atlantica venga stroncata su entrambe le sponde dell’oceano: i grandi protagonisti della politica atlantica che prendono direttamente parola contro l’agenda democratica painita – Edmund Burke, Boissy d’Anglas e John Quincy Adams – spostano l’attenzione dal governo alla società per rafforzare le gerarchie determinate dal possesso di proprietà e dall’affermazione del lavoro salariato. Dentro la rivoluzione atlantica, viene così svolto un preciso compito politico, quello di contribuire alla formazione di un ambiente sociale e culturale favorevole all’affermazione del capitalismo – dalla trasformazione commerciale della società alla futura innovazione industriale. Ciò emerge in tutta evidenza quando sulla superficie increspata dell’oceano Atlantico compare nuovamente Paine: a Londra come a New York. Abbandonando quella positiva visione del commercio come vettore di emancipazione personale e collettiva, nel primo trentennio del diciannovesimo secolo, i lavoratori delle prime manifatture compongono l’agenda radicale che Paine lascia in eredità in un linguaggio democratico che assume così la valenza di linguaggio di classe. La diversa prospettiva politica sulla società elaborata da Paine in Europa torna allora d’attualità, anche in America. Ciò consente in conclusione di discutere quella storiografia secondo la quale nella repubblica dal 1787 al 1830 il trionfo della democrazia ha luogo – senza tensione e conflittualità – insieme con la lineare e incontestata affermazione del capitalismo: leggere Paine nella rivoluzione atlantica consente di superare quell’approccio storiografico che tende a ricostruire la circolazione di un unico paradigma linguistico o di un’ideologia dominante, finendo per chiudere la grande esperienza rivoluzionaria atlantica in un tempo limitato – quello del 1776 o in alternativa del 1789 – e in uno spazio chiuso delimitato dai confini delle singole nazioni. Quello che emerge attraverso Paine è invece una società atlantica in transizione lungo linee politiche e sociali che tracciano una direzione di marcia verso il capitalismo, una direzione affatto esente dal conflitto. Neanche sulla sponda americana dell’oceano, dove attraverso Paine è possibile sottolineare una precisa congiunzione storica tra rivoluzione politica, costruzione del governo federale e transizione al capitalismo. Una congiunzione per la quale la sfida democratica non risulta affatto sconfitta: sebbene venga allontanata dall’orizzonte immediato della rivoluzione, nell’arco di neanche un ventennio dalla morte di Paine nel 1809, essa torna a muovere le acque dell’oceano – con le parole di Melville – come un violento accesso di febbre contagiosa destinato a turbare l’organismo costituzionalmente sano del mondo atlantico. Per questo, come scrive John Adams nel 1805 quella che il 1776 apre potrebbe essere chiamata “the Age of Folly, Vice, Frenzy, Brutality, Daemons, Buonaparte -…- or the Age of the burning Brand from the Bottomless Pit”. Non può però essere chiamata “the Age of Reason”, perché è l’epoca di Paine: “whether any man in the world has had more influence on its inhabitants or affairs for the last thirty years than Tom Paine” -…- there can be no severer satyr on the age. For such a mongrel between pig and puppy, begotten by a wild boar on a bitch wolf, never before in any age of the world was suffered by the poltroonery of mankind, to run through such a career of mischief. Call it then the Age of Paine”.
Resumo:
La ricerca oggetto di questa tesi, come si evince dal titolo stesso, è volta alla riduzione dei consumi per vetture a forte carattere sportivo ed elevate prestazioni specifiche. In particolare, tutte le attività descritte fanno riferimento ad un ben definito modello di vettura, ovvero la Maserati Quattroporte. Lo scenario all’interno del quale questo lavoro si inquadra, è quello di una forte spinta alla riduzione dei cosiddetti gas serra, ossia dell’anidride carbonica, in linea con quelle che sono le disposizioni dettate dal protocollo di Kyoto. La necessità di ridurre l’immissione in atmosfera di CO2 sta condizionando tutti i settori della società: dal riscaldamento degli edifici privati a quello degli stabilimenti industriali, dalla generazione di energia ai processi produttivi in senso lato. Nell’ambito di questo panorama, chiaramente, sono chiamati ad uno sforzo considerevole i costruttori di automobili, alle quali è imputata una percentuale considerevole dell’anidride carbonica prodotta ogni giorno e riversata nell’atmosfera. Al delicato problema inquinamento ne va aggiunto uno forse ancor più contingente e diretto, legato a ragioni di carattere economico. I combustibili fossili, come tutti sanno, sono una fonte di energia non rinnovabile, la cui disponibilità è legata a giacimenti situati in opportune zone del pianeta e non inesauribili. Per di più, la situazione socio politica che il medio oriente sta affrontando, unita alla crescente domanda da parte di quei paesi in cui il processo di industrializzazione è partito da poco a ritmi vertiginosi, hanno letteralmente fatto lievitare il prezzo del petrolio. A causa di ciò, avere una vettura efficiente in senso lato e, quindi, a ridotti consumi, è a tutti gli effetti un contenuto di prodotto apprezzato dal punto di vista del marketing, anche per i segmenti vettura più alti. Nell’ambito di questa ricerca il problema dei consumi è stato affrontato come una conseguenza del comportamento globale della vettura in termini di efficienza, valutando il miglior compromesso fra le diverse aree funzionali costituenti il veicolo. Una parte consistente del lavoro è stata dedicata alla messa a punto di un modello di calcolo, attraverso il quale eseguire una serie di analisi di sensibilità sull’influenza dei diversi parametri vettura sul consumo complessivo di carburante. Sulla base di tali indicazioni, è stata proposta una modifica dei rapporti del cambio elettro-attuato con lo scopo di ottimizzare il compromesso tra consumi e prestazioni, senza inficiare considerevolmente queste ultime. La soluzione proposta è stata effettivamente realizzata e provata su vettura, dando la possibilità di verificare i risultati ed operare un’approfondita attività di correlazione del modello di calcolo per i consumi. Il beneficio ottenuto in termini di autonomia è stato decisamente significativo con riferimento sia ai cicli di omologazione europei, che a quelli statunitensi. Sono state inoltre analizzate le ripercussioni dal punto di vista delle prestazioni ed anche in questo caso i numerosi dati rilevati hanno permesso di migliorare il livello di correlazione del modello di simulazione per le prestazioni. La vettura con la nuova rapportatura proposta è stata poi confrontata con un prototipo di Maserati Quattroporte avente cambio automatico e convertitore di coppia. Questa ulteriore attività ha permesso di valutare il differente comportamento tra le due soluzioni, sia in termini di consumo istantaneo, che di consumo complessivo rilevato durante le principali missioni su banco a rulli previste dalle normative. L’ultima sezione del lavoro è stata dedicata alla valutazione dell’efficienza energetica del sistema vettura, intesa come resistenza all’avanzamento incontrata durante il moto ad una determinata velocità. Sono state indagate sperimentalmente le curve di “coast down” della Quattroporte e di alcune concorrenti e sono stati proposti degli interventi volti alla riduzione del coefficiente di penetrazione aerodinamica, pur con il vincolo di non alterare lo stile vettura.
Resumo:
Oggetto di studio del dottorato sono stati i suoli forestali in ambiente litoraneo della Regione Emilia-Romagna. In particolare sono state considerate quattro zone di studio in Provincia di Ravenna: Pineta di San Vitale, aree boscate di Bellocchio, Pineta di Classe e Pineta di Pinarella di Cervia. Lo studio in una prima fase si è articolato nella definizione dello stato del sistema suolo, mediante la caratterizzazione pedologica delle zone di studio. A tale scopo è stata messa a punto un’adeguata metodologia d’indagine costituita da un’indagine ambientale e successivamente da un’indagine pedologica. L’indagine ambientale, mediante fotointerpretazione ed elaborazione di livelli informativi in ambito GIS, ha permesso di individuare ambiti pedogenetici omogenei. L’indagine pedologica in campo ha messo in luce l’elevata variabilità spaziale di alcuni fattori della pedogenesi, in particolar modo l’andamento microtopografico tipico dei sistemi dunali costieri e la profondità della falda freatica del piano campagna. Complessivamente sono stati aperti descritti e campionati 40 profili pedologici. Sugli orizzonti diagnostici di questi sono state eseguite le seguenti analisi: tessitura, pH, calcare totale, carbonio organico, azoto kjeldahl, conduttività elettrica (CE), capacità di scambio cationico (CSC) e calcare attivo. I suoli presentano, ad eccezione della tessitura (generalmente grossolana), un’elevata variabilità delle proprietà chimico fisiche in funzione della morfologia, della profondità e della vicinanza della falda freatica. Sono state riscontrate diverse correlazioni, tra le più significative quelle tra carbonio organico e calcare totale (coeff. di correlazione R = -0.805 per Pineta di Classe) e tra calcare totale e pH (R = 0.736), dalle quali si è compreso in che misura l’effetto della decarbonatazione agisce nei diversi ambiti pedogenetici e tra suoli con diversa età di formazione. Il calcare totale varia da 0 a oltre 400 g.kg-1 e aumenta dalla superficie in profondità, dall’entroterra verso la costa e da nord verso sud. Il carbonio organico, estremamente variabile (0.1 - 107 g.kg-1), è concentrato soprattutto nel primo orizzonte superficiale. Il rapporto C/N (>10 in superficie e molto variabile in profondità) evidenzia una efficienza di umificazione non sempre ottimale specialmente negli orizzonti prossimi alla falda freatica. I tipi di suoli presenti, classificati secondo la Soil Taxonomy, sono risultati essere Mollic/Sodic/Typic Psammaquents nelle zone interdunali, Typic Ustipsamments sulle sommità dunali e Oxiaquic/Aquic Ustipsamments negli ambienti morfologici intermedi. Come sintesi della caratterizzazione pedologica sono state prodotte due carte dei suoli, rispettivamente per Pineta di San Vitale (scala 1:20000) e per le aree boscate di Bellocchio (scala 1:10000), rappresentanti la distribuzione dei pedotipi osservati. In una seconda fase si è focalizzata l’attenzione sugli impatti che le principali pressioni naturali ed antropiche, possono esercitare sul suolo, condizionandone la qualità in virtù delle esigenze del soprasuolo forestale. Si è scelta la zona sud di Pineta San Vitale come area campione per monitorarne mensilmente, su quattro siti rappresentativi, le principali caratteristiche chimico-fisiche dei suoli e delle acque di falda, onde evidenziare possibili correlazioni. Le principali determinazioni svolte sia nel suolo in pasta satura che nelle acque di falda hanno riguardato CE, Ca2+, Mg2+, K+, Na+, Cl-, SO4 2-, HCO3 - e SAR (Sodium Adsorption Ratio). Per ogni sito indagato sono emersi andamenti diversi dei vari parametri lungo i profili, correlabili in diversa misura tra di loro. Si sono osservati forti trend di aumento di CE e degli ioni solubili verso gli orizzonti profondi in profili con acqua di falda più salina (19 – 28 dS.m-1) e profonda (1 – 1.6 m dalla superficie), mentre molto significativi sono apparsi gli accumuli di sali in superficie nei mesi estivi (CE in pasta satura da 17.6 a 28.2 dS.m-1) nei profili con falda a meno di 50 cm dalla superficie. Si è messo successivamente in relazione la CE nel suolo con diversi parametri ambientali più facilmente monitorabili quali profondità e CE di falda, temperatura e precipitazioni, onde trovarne una relazione statistica. Dai dati di tre dei quattro siti monitorati è stato possibile definire tali relazioni con equazioni di regressione lineare a più variabili. Si è cercato poi di estendere l’estrapolabilità della CE del suolo per tutte le altre casistiche possibili di Pineta San Vitale mediante la formulazione di un modello empirico. I dati relativi alla CE nel suolo sia reali che estrapolati dal modello, sono stati messi in relazione con le esigenze di alcune specie forestali presenti nelle zone di studio e con diverso grado di tolleranza alla salinità ed al livello di umidità nel suolo. Da tali confronti è emerso che per alcune specie moderatamente tolleranti la salinità (Pinus pinea, Pinus pinaster e Juniperus communis) le condizioni critiche allo sviluppo e alla sopravvivenza sono da ricondursi, per la maggior parte dei casi, alla falda non abbastanza profonda e non tanto alla salinità che essa trasmette sull’intero profilo del suolo. Per altre specie quali Quercus robur, Populus alba, Fraxinus oxycarpa e Ulmus minor moderatamente sensibili alla salinità, ma abituate a vivere in suoli più umidi, la salinità di una falda troppo prossima alla superficie può ripercuotersi su tutto il profilo e generare condizioni critiche di sviluppo. Nei suoli di Pineta San Vitale sono stati inoltre studiati gli aspetti relativi all’inquinamento da accumulo di alcuni microtossici nei suoli quali Ag, Cd, Ni e Pb. In alcuni punti di rilievo sono stati osservati moderati fattori di arricchimento superficiale per Pb e Cd riconducibili all’attività antropica, mentre le aliquote biodisponibili risultano maggiori in superficie, ma all’interno dei valori medi dei suoli italiani. Lo studio svolto ha permesso di meglio conoscere gli impatti sul suolo, causati dalle principali pressioni esistenti, in un contesto dinamico. In particolare, si è constatato come i suoli delle zone studiate abbiano un effetto tampone piuttosto ridotto sulla mitigazione degli effetti indotti dalle pressioni esterne prese in esame (salinizzazione, sodicizzazione e innalzamento della falda freatica). Questo è dovuto principalmente alla ridotta presenza di scambiatori sulla matrice solida atti a mantenere un equilibrio dinamico con le frazioni solubili. Infine le variabili ambientali considerate sono state inserite in un modello concettuale DPSIR (Driving forces, Pressures, States, Impacts, Responces) dove sono stati prospettati, in via qualitativa, alcuni scenari in funzione di possibili risposte gestionali verosimilmente attuabili, al fine di modificare le pressioni che insistono sul sistema suolo-vegetazione delle pinete ravennati.
Resumo:
Con questo lavoro di tesi si è cercato da un lato di dare un contributo al settore dei sensori chimici, caratterizzando e sviluppando diversi sistemi che presentano promettenti proprietà per l’utilizzo nella realizzazione di sensori luminescenti, e dall’altro di studiare sistemi di nanoparticelle di oro per identificarne e caratterizzarne i processi che portano all’interazione con un’unità fluorescente di riferimento, il pirene. Quest’ultima parte della tesi, sviluppata nel capitolo 4, sebbene possa apparire “slegata” dall’ambito della sensoristica, in realtà non lo è in quanto il lavoro di ricerca svolto rappresenta una buona base di partenza per lo sviluppo di sistemi di nanoparticelle metalliche con un possibile impiego in campo biomedico e diagnostico. Tutte le specie studiate, seppur molto diverse tra loro, posseggono quindi buone caratteristiche di luminescenza ed interessanti capacità di riconoscimento, più o meno selettivo, di specie in soluzione o allo stato gassoso. L’approccio generale che è stato adottato comporta una iniziale caratterizzazione in soluzione ed una susseguente ottimizzazione del sistema mirata a passare al fissaggio su supporti solidi in vista di possibili applicazioni pratiche. A tal proposito, nel capitolo 3 è stato possibile ottenere un monostrato organico costituito da un recettore (un cavitando), dotato di una parte fluorescente le cui proprietà di luminescenza sono sensibili alla presenza di una funzione chimica che caratterizza una classe di analiti, gli alcoli. E’ interessante sottolineare come lo stesso sistema in soluzione si comporti in maniera sostanzialmente differente, mostrando una capacità di segnalare l’analita molto meno efficiente, anche in funzione di una diversa orientazione della parte fluorescente. All’interfaccia solido-gas invece, l’orientamento del fluoroforo gioca un ruolo chiave nel processo di riconoscimento, e ottimizzando ulteriormente il setup sperimentale e la composizione dello strato, sarà possibile arrivare a segnalare quantità di analita sempre più basse. Nel capitolo 5 invece, è stato preso in esame un sistema le cui potenzialità, per un utilizzo come sonda fluorescente nel campo delle superfici di silicio, sembra promettere molto bene. A tal proposito sono stati discussi anche i risultati del lavoro che ha fornito l’idea per la concezione di questo sistema che, a breve, verrà implementato a sua volta su superficie solida. In conclusione, le ricerche descritte in questa tesi hanno quindi contribuito allo sviluppo di nuovi chemosensori, cercando di migliorare sia le proprietà fotofisiche dell’unità attiva, sia quelle dell’unità recettrice, sia, infine, l’efficienza del processo di traduzione del segnale. I risultati ottenuti hanno inoltre permesso di realizzare alcuni prototipi di dispositivi sensoriali aventi caratteristiche molto promettenti e di ottenere informazioni utili per la progettazione di nuovi dispositivi (ora in fase di sviluppo nei laboratori di ricerca) sempre più efficienti, rispondendo in tal modo alle aspettative con cui questo lavoro di dottorato era stato intrapreso.
Resumo:
Questa tesi riguarda l'analisi delle trasmissioni ad ingranaggi e delle ruote dentate in generale, nell'ottica della minimizzazione delle perdite di energia. È stato messo a punto un modello per il calcolo della energia e del calore dissipati in un riduttore, sia ad assi paralleli sia epicicloidale. Tale modello consente di stimare la temperatura di equilibrio dell'olio al variare delle condizioni di funzionamento. Il calcolo termico è ancora poco diffuso nel progetto di riduttori, ma si è visto essere importante soprattutto per riduttori compatti, come i riduttori epicicloidali, per i quali la massima potenza trasmissibile è solitamente determinata proprio da considerazioni termiche. Il modello è stato implementato in un sistema di calcolo automatizzato, che può essere adattato a varie tipologie di riduttore. Tale sistema di calcolo consente, inoltre, di stimare l'energia dissipata in varie condizioni di lubrificazione ed è stato utilizzato per valutare le differenze tra lubrificazione tradizionale in bagno d'olio e lubrificazione a “carter secco” o a “carter umido”. Il modello è stato applicato al caso particolare di un riduttore ad ingranaggi a due stadi: il primo ad assi paralleli ed il secondo epicicloidale. Nell'ambito di un contratto di ricerca tra il DIEM e la Brevini S.p.A. di Reggio Emilia, sono state condotte prove sperimentali su un prototipo di tale riduttore, prove che hanno consentito di tarare il modello proposto [1]. Un ulteriore campo di indagine è stato lo studio dell’energia dissipata per ingranamento tra due ruote dentate utilizzando modelli che prevedano il calcolo di un coefficiente d'attrito variabile lungo il segmento di contatto. I modelli più comuni, al contrario, si basano su un coefficiente di attrito medio, mentre si può constatare che esso varia sensibilmente durante l’ingranamento. In particolare, non trovando in letteratura come varia il rendimento nel caso di ruote corrette, ci si è concentrati sul valore dell'energia dissipata negli ingranaggi al variare dello spostamento del profilo. Questo studio è riportato in [2]. È stata condotta una ricerca sul funzionamento di attuatori lineari vite-madrevite. Si sono studiati i meccanismi che determinano le condizioni di usura dell'accoppiamento vite-madrevite in attuatori lineari, con particolare riferimento agli aspetti termici del fenomeno. Si è visto, infatti, che la temperatura di contatto tra vite e chiocciola è il parametro più critico nel funzionamento di questi attuatori. Mediante una prova sperimentale, è stata trovata una legge che, data pressione, velocità e fattore di servizio, stima la temperatura di esercizio. Di tale legge sperimentale è stata data un'interpretazione sulla base dei modelli teorici noti. Questo studio è stato condotto nell'ambito di un contratto di ricerca tra il DIEM e la Ognibene Meccanica S.r.l. di Bologna ed è pubblicato in [3].
Resumo:
Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.
Resumo:
Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.
Resumo:
Le celle a combustibile ad ossido solido (SOFC) sono dei sistemi elettrochimici in grado di trasformare direttamente l’energia chimica di un combustibile (generalmente H2) e di un comburente (O2) in energia elettrica, senza l’intervento intermedio di un ciclo termico. Le SOFCs rappresentano un sistema energetico pulito, efficiente e sicuro, tuttavia questa tecnologia presenta costi di produzione ancora elevati e necessita di un maggiore sviluppo. L’argomento della presente tesi si colloca nell’ambito dello studio e realizzazione di materiali per l’elettrolita di SOFCs ed il contributo scientifico che si propone di fornire trova spazio nella necessità di migliorare la sinterizzazione di tali materiali e nell’ottimizzazione dei processi di formatura per produzioni facilmente scalabili a livello industriale con costo contenuto ed ecocompatibili. L’approccio di ricerca adottato è stato quello di approfondire le conoscenze relative ad un ossido di cerio drogato con gadolinio (GDC), scelto come elettrolita, cercando di comprendere su quali parametri intervenire per promuovere la densificazione ed ottimizzare il seguente processo di formatura. La ricerca si è articolata nei seguenti punti: a) Studio del processo di sinterizzazione in relazione alle caratteristiche morfologiche delle polveri di GDC pura ed esaminando l’influenza dell’ossido di rame, aggiunto come drogante, sul comportamento in sinterizzazione e microstruttura finale. I risultati indicano che il processo di sinterizzazione è enormemente influenzato dalla presenza del CuO, dalla sua morfologia e dalla procedura usata per il drogaggio b) Realizzazione di un inchiostro serigrafico a base di GDC in matrice acquosa da depositare su anodi in verde. La serigrafia rappresenta un’importante tecnica di formatura, facilmente adattabile ad una produzione industriale, con cui è possibile ottenere film di GDC densi. L’ottimizzazione dei processi in matrice acquosa porta un enorme contributo per la diminuzione dei costi di produzione e per la realizzazione di un processo maggiormente ecocompatibile. Questo obiettivo è stato raggiunto con la corretta scelta e caratterizzazione di tutti gli additivi di formatura c) Assemblaggio della semicella SOFC anodo supportante e relativo trattamento in co-firing. La messa a punto di un idoneo ciclo di burn out degli organici ha contribuito a preservare l’integrità ed omogeneità dei film depositati che dopo sinterizzazione risultano perfettamente densi e privi di cricche.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.