960 resultados para Sui generis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’infezione da virus dell’ epatite E (HEV) nei suini e nell’uomo è stata segnalata in diversi Paesi. Nei suini, il virus causa infezioni asintomatiche, mentre nell’uomo è responsabile di epidemie di epatite ad andamento acuto nei Paesi a clima tropicale o subtropicale con condizioni igieniche scadenti, di casi sporadici in quelli sviluppati. HEV è stato isolato anche in diversi animali e l’analisi nucleotidica degli isolati virali di origine animale ha mostrato un elevato grado di omologia con i ceppi di HEV umani isolati nelle stesse aree geografiche, avvalorando l’ipotesi che l'infezione da HEV sia una zoonosi. In America del Sud HEV suino è stato isolato per la prima volta in suini argentini nel 2006, mentre solo dal 1998 esistono dati sull’ infezione da HEV nell’uomo in Bolivia. In questa indagine è stato eseguito uno studio di sieroprevalenza in due comunità rurali boliviane e i risultati sono stati confrontati con quelli dello studio di sieroprevalenza sopra menzionato condotto in altre zone rurali della Bolivia. Inoltre, mediante Nested RT-PCR, è stata verificata la presenza di HEV nella popolazione umana e suina. La sieroprevalenza per anticorpi IgG anti-HEV è risultata pari al 6,2%, molto simile a quella evidenziata nello studio precedente. La prevalenza maggiore (24%) si è osservata nei soggetti di età compresa tra 41 e 50 anni, confermando che l’ infezione da HEV è maggiore fra i giovani-adulti. La ricerca di anticorpi anti HEV di classe IgM eseguita su 52 sieri ha fornito 4 risultati positivi. Il genoma virale è stato identificato in uno dei 22 pool di feci umane e l'esame virologico di 30 campioni individuali fecali e 7 individuali di siero ha fornito rispettivamente risultati positivi in 4/30 e 1/7. La Nested RT-PCR eseguita sui 22 pool di feci suine ha dato esito positivo in 7 pool. L’analisi delle sequenze genomiche di tutti gli amplificati ha consentito di stabilire che gli isolati umani appartenevano allo stesso genotipo III di quelli suini e presentavano con questi una elevata omologia aminoacidica (92%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Call me Ismail. Così inizia notoriamente il celebre romanzo di Herman Melville, Moby Dick. In un altro racconto, ambientato nel 1797, anno del grande ammutinamento della flotta del governo inglese, Melville dedica un breve accenno a Thomas Paine. Il racconto è significativo di quanto – ancora nella seconda metà dell’Ottocento – l’autore di Common Sense e Rights of Man sia sinonimo delle possibilità radicalmente democratiche che l’ultima parte del Settecento aveva offerto. Melville trova in Paine la chiave per dischiudere nel presente una diversa interpretazione della rivoluzione: non come una vicenda terminata e confinata nel passato, ma come una possibilità che persiste nel presente, “una crisi mai superata” che viene raffigurata nel dramma interiore del gabbiere di parrocchetto, Billy Budd. Il giovane marinaio della nave mercantile chiamata Rights of Man mostra un’attitudine docile e disponibile all’obbedienza, che lo rende pronto ad accettare il volere dei superiori. Billy non contesta l’arruolamento forzato nella nave militare. Nonostante il suo carattere affabile, non certo irascibile, l’esperienza in mare sulla Rights of Man rappresenta però un peccato difficile da espiare: il sospetto è più forte della ragionevolezza, specie quando uno spettro di insurrezione continua ad aggirarsi nella flotta di sua maestà. Così, quando, imbarcato in una nave militare della flotta inglese, con un violento pugno Billy uccide l’uomo che lo accusa di tramare un nuovo ammutinamento, il destino inevitabile è quello di un’esemplare condanna a morte. Una condanna che, si potrebbe dire, mostra come lo spettro della rivoluzione continui ad agitare le acque dell’oceano Atlantico. Nella Prefazione Melville fornisce una chiave di lettura per accedere al testo e decifrare il dramma interiore del marinaio: nella degenerazione nel Terrore, la vicenda francese indica una tendenza al tradimento della rivoluzione, che è così destinata a ripetere continuamente se stessa. Se “la rivoluzione si trasformò essa stessa in tirannia”, allora la crisi segna ancora la società atlantica. Non è però alla classica concezione del tempo storico – quella della ciclica degenerazione e rigenerazione del governo – che Melville sembra alludere. Piuttosto, la vicenda rivoluzionaria che ha investito il mondo atlantico ha segnato un radicale punto di cesura con il passato: la questione non è quella della continua replica della storia, ma quella del continuo circolare dello “spirito rivoluzionario”, come dimostra nell’estate del 1797 l’esperienza di migliaia di marinai che tra grida di giubilo issano sugli alberi delle navi i colori britannici da cui cancellano lo stemma reale e la croce, abolendo così d’un solo colpo la bandiera della monarchia e trasformando il mondo in miniatura della flotta di sua maestà “nella rossa meteora di una violenta e sfrenata rivoluzione”. Raccontare la vicenda di Billy riporta alla memoria Paine. L’ammutinamento è solo un frammento di un generale spirito rivoluzionario che “l’orgoglio nazionale e l’opinione politica hanno voluto relegare nello sfondo della storia”. Quando Billy viene arruolato, non può fare a meno di portare con sé l’esperienza della Rights of Man. Su quel mercantile ha imparato a gustare il dolce sapore del commercio insieme all’asprezza della competizione sfrenata per il mercato, ha testato la libertà non senza subire la coercizione di un arruolamento forzato. La vicenda di Billy ricorda allora quella del Paine inglese prima del grande successo di Common Sense, quando muove da un’esperienza di lavoro all’altra in modo irrequieto alla ricerca di felicità – dal mestiere di artigiano all’avventura a bordo di un privateer inglese durante la guerra dei sette anni, dalla professione di esattore fiscale alle dipendenze del governo, fino alla scelta di cercare fortuna in America. Così come Paine rivendica l’originalità del proprio pensiero, il suo essere un autodidatta e le umili origini che gli hanno impedito di frequentare le biblioteche e le accademie inglesi, anche Billy ha “quel tipo e quel grado di intelligenza che si accompagna alla rettitudine non convenzionale di ogni integra creatura umana alla quale non sia ancora stato offerto il dubbio pomo della sapienza”. Così come il pamphlet Rights of man porta alla virtuale condanna a morte di Paine – dalla quale sfugge trovando rifugio a Parigi – allo stesso modo il passato da marinaio sulla Rights of Man porta al processo per direttissima che sentenzia la morte per impiccagione del giovane marinaio. Il dramma interiore di Billy replica dunque l’esito negativo della rivoluzione in Europa: la rivoluzione è in questo senso come un “violento accesso di febbre contagiosa”, destinato a scomparire “in un organismo costituzionalmente sano, che non tarderà a vincerla”. Non viene però meno la speranza: quella della rivoluzione sembra una storia senza fine perché Edward Coke e William Blackstone – i due grandi giuristi del common law inglese che sono oggetto della violenta critica painita contro la costituzione inglese – “non riescono a far luce nei recessi oscuri dell’animo umano”. Rimane dunque uno spiraglio, un angolo nascosto dal quale continua a emergere uno spirito rivoluzionario. Per questo non esistono cure senza effetti collaterali, non esiste ordine senza l’ipoteca del ricorso alla forza contro l’insurrezione: c’è chi come l’ufficiale che condanna Billy diviene baronetto di sua maestà, c’è chi come Billy viene impiccato, c’è chi come Paine viene raffigurato come un alcolizzato e impotente, disonesto e depravato, da relegare sul fondo della storia atlantica. Eppure niente più del materiale denigratorio pubblicato contro Paine ne evidenzia il grande successo. Il problema che viene sollevato dalle calunniose biografie edite tra fine Settecento e inizio Ottocento è esattamente quello del trionfo dell’autore di Common Sense e Rights of Man nell’aver promosso, spiegato e tramandato la rivoluzione come sfida democratica che è ancora possibile vincere in America come in Europa. Sono proprio le voci dei suoi detrattori – americani, inglesi e francesi – a mostrare che la dimensione nella quale è necessario leggere Paine è quella del mondo atlantico. Assumendo una prospettiva atlantica, ovvero ricostruendo la vicenda politica e intellettuale di Paine da una sponda all’altra dell’oceano, è possibile collegare ciò che Paine dice in spazi e tempi diversi in modo da segnalare la presenza costante sulla scena politica di quei soggetti che – come i marinai protagonisti dell’ammutinamento – segnalano il mancato compimento delle speranze aperte dall’esperienza rivoluzionaria. Limitando la ricerca al processo di costruzione della nazione politica, scegliendo di riassumerne il pensiero politico nell’ideologia americana, nella vicenda costituzionale francese o nel contesto politico inglese, le ricerche su Paine non sono riuscite fino in fondo a mostrare la grandezza di un autore che risulta ancora oggi importante: la sua produzione intellettuale è talmente segnata dalle vicende rivoluzionarie che intessono la sua biografia da fornire la possibilità di studiare quel lungo periodo di trasformazione sociale e politica che investe non una singola nazione, ma l’intero mondo atlantico nel corso della rivoluzione. Attraverso Paine è allora possibile superare quella barriera che ha diviso il dibattito storiografico tra chi ha trovato nella Rivoluzione del 1776 la conferma del carattere eccezionale della nazione americana – fin dalla sua origine rappresentata come esente dalla violenta conflittualità che invece investe il vecchio continente – e chi ha relegato il 1776 a data di secondo piano rispetto al 1789, individuando nell’illuminismo la presunta superiorità culturale europea. Da una sponda all’altra dell’Atlantico, la storiografia ha così implicitamente alzato un confine politico e intellettuale tra Europa e America, un confine che attraverso Paine è possibile valicare mostrandone la debolezza. Parlando di prospettiva atlantica, è però necessario sgombrare il campo da possibili equivoci: attraverso Paine, non intendiamo stabilire l’influenza della Rivoluzione americana su quella francese, né vogliamo mostrare l’influenza del pensiero politico europeo sulla Rivoluzione americana. Non si tratta cioè di stabilire un punto prospettico – americano o europeo – dal quale leggere Paine. L’obiettivo non è quello di sottrarre Paine agli americani per restituirlo agli inglesi che l’hanno tradito, condannandolo virtualmente a morte. Né è quello di confermare l’americanismo come suo unico lascito culturale e politico. Si tratta piuttosto di considerare il mondo atlantico come l’unico scenario nel quale è possibile leggere Paine. Per questo, facendo riferimento al complesso filone storiografico dell’ultimo decennio, sviluppato in modo diverso da Bernard Bailyn a Markus Rediker e Peter Linebaugh, parliamo di rivoluzione atlantica. Certo, Paine vede fallire nell’esperienza del Terrore quella rivoluzione che in America ha trionfato. Ciò non costituisce però un elemento sufficiente per riproporre l’interpretazione arendtiana della rivoluzione che, sulla scorta della storiografia del consenso degli anni cinquanta, ma con motivi di fascino e interesse che non sempre ritroviamo in quella storiografia, ha contribuito ad affermare un ‘eccezionalismo’ americano anche in Europa, rappresentando gli americani alle prese con il problema esclusivamente politico della forma di governo, e i francesi impegnati nel rompicapo della questione sociale della povertà. Rompicapo che non poteva non degenerare nella violenza francese del Terrore, mentre l’America riusciva a istituire pacificamente un nuovo governo rappresentativo facendo leva su una società non conflittuale. Attraverso Paine, è infatti possibile mostrare come – sebbene con intensità e modalità diverse – la rivoluzione incida sul processo di trasformazione commerciale della società che investe l’intero mondo atlantico. Nel suo andirivieni da una sponda all’altra dell’oceano, Paine non ragiona soltanto sulla politica – sulla modalità di organizzare una convivenza democratica attraverso la rappresentanza, convivenza che doveva trovare una propria legittimazione nel primato della costituzione come norma superiore alla legge stabilita dal popolo. Egli riflette anche sulla società commerciale, sui meccanismi che la muovono e le gerarchie che la attraversano, mostrando così precise linee di continuità che tengono insieme le due sponde dell’oceano non solo nella circolazione del linguaggio politico, ma anche nella comune trasformazione sociale che investe i termini del commercio, del possesso della proprietà e del lavoro, dell’arricchimento e dell’impoverimento. Con Paine, America e Europa non possono essere pensate separatamente, né – come invece suggerisce il grande lavoro di Robert Palmer, The Age of Democratic Revolution – possono essere inquadrate dentro un singolo e generale movimento rivoluzionario essenzialmente democratico. Emergono piuttosto tensioni e contraddizioni che investono il mondo atlantico allontanando e avvicinando continuamente le due sponde dell’oceano come due estremità di un elastico. Per questo, parliamo di società atlantica. Quanto detto trova conferma nella difficoltà con la quale la storiografia ricostruisce la figura politica di Paine dentro la vicenda rivoluzionaria americana. John Pocock riconosce la difficoltà di comprendere e spiegare Paine, quando sostiene che Common Sense non evoca coerentemente nessun prestabilito vocabolario atlantico e la figura di Paine non è sistemabile in alcuna categoria di pensiero politico. Partendo dal paradigma classico della virtù, legata antropologicamente al possesso della proprietà terriera, Pocock ricostruisce la permanenza del linguaggio repubblicano nel mondo atlantico senza riuscire a inserire Common Sense e Rights of Man nello svolgimento della rivoluzione. Sebbene non esplicitamente dichiarata, l’incapacità di comprendere il portato innovativo di Common Sense, in quella che è stata definita sintesi repubblicana, è evidente anche nel lavoro di Bernard Bailyn che spiega come l’origine ideologica della rivoluzione, radicata nella paura della cospirazione inglese contro la libertà e nel timore della degenerazione del potere, si traduca ben presto in un sentimento fortemente contrario alla democrazia. Segue questa prospettiva anche Gordon Wood, secondo il quale la chiamata repubblicana per l’indipendenza avanzata da Paine non parla al senso comune americano, critico della concezione radicale del governo rappresentativo come governo della maggioranza, che Paine presenta quando partecipa al dibattito costituzionale della Pennsylvania rivoluzionaria. Paine è quindi considerato soltanto nelle risposte repubblicane dei leader della guerra d’indipendenza che temono una possibile deriva democratica della rivoluzione. Paine viene in questo senso dimenticato. La sua figura è invece centrale della nuova lettura liberale della rivoluzione: Joyce Appleby e Isaac Kramnick contestano alla letteratura repubblicana di non aver compreso che la separazione tra società e governo – la prima intesa come benedizione, il secondo come male necessario – con cui si apre Common Sense rappresenta il tentativo riuscito di cogliere, spiegare e tradurre in linguaggio politico l’affermazione del capitalismo. In particolare, Appleby critica efficacemente il concetto d’ideologia proposto dalla storiografia repubblicana, perché presuppone una visione statica della società. L’affermazione del commercio fornirebbe invece quella possibilità di emancipazione attraverso il lavoro libero, che Paine coglie perfettamente promuovendo una visione della società per la quale il commercio avrebbe permesso di raggiungere la libertà senza il timore della degenerazione della rivoluzione nel disordine. Questa interpretazione di Paine individua in modo efficace un aspetto importante del suo pensiero politico, la sua profonda fiducia nel commercio come strumento di emancipazione e progresso. Tuttavia, non risulta essere fino in fondo coerente e pertinente, se vengono prese in considerazione le diverse agende politiche avanzate in seguito alla pubblicazione di Common Sense e di Rights of Man, né sembra reggere quando prendiamo in mano The Agrarian Justice (1797), il pamphlet nel quale Paine mette in discussione la sua profonda fiducia nel progresso della società commerciale. Diverso è il Paine che emerge dalla storiografia bottom-up, secondo la quale la rivoluzione non può più essere ridotta al momento repubblicano o all’affermazione senza tensione del liberalismo: lo studio della rivoluzione deve essere ampliato fino a comprendere quell’insieme di pratiche e discorsi che mirano all’incisiva trasformazione dell’esistente slegando il diritto di voto dalla qualifica proprietaria, perseguendo lo scopo di frenare l’accumulazione di ricchezza nelle mani di pochi con l’intento di ordinare la società secondo una logica di maggiore uguaglianza. Come dimostrano Eric Foner e Gregory Claeys, attraverso Paine è allora possibile rintracciare, sulla sponda americana come su quella inglese dell’Atlantico, forti pretese democratiche che non sembrano riducibili al linguaggio liberale, né a quello repubblicano. Paine viene così sottratto a rigide categorie storiografiche che per troppo tempo l’hanno consegnato tout court all’elogio del campo liberale o al silenzio di quello repubblicano. Facendo nostra la metodologia di ricerca elaborata dalla storiografia bottom-up per tenere insieme storia sociale e storia intellettuale, possiamo allora leggere Paine non solo per parlare di rivoluzione atlantica, ma anche di società atlantica: società e politica costituiscono un unico orizzonte d’indagine dal quale esce ridimensionata l’interpretazione della rivoluzione come rivoluzione esclusivamente politica, che – sebbene in modo diverso – tanto la storiografia repubblicana quanto quella liberale hanno rafforzato, alimentando indirettamente l’eccezionale successo americano contro la clamorosa disfatta europea. Entrambe le sponde dell’Atlantico mostrano una società in transizione: la costruzione della finanza nazionale con l’istituzione del debito pubblico e la creazione delle banche, la definizione delle forme giuridiche che stabiliscono modalità di possesso e impiego di proprietà e lavoro, costituiscono un complesso strumentario politico necessario allo sviluppo del commercio e al processo di accumulazione di ricchezza. Per questo, la trasformazione commerciale della società è legata a doppio filo con la rivoluzione politica. Ricostruire il modo nel quale Paine descrive e critica la società da una sponda all’altra dell’Atlantico mostra come la separazione della società dal governo non possa essere immediatamente interpretata come essenza del liberalismo economico e politico. La lettura liberale rappresenta senza ombra di dubbio un salto di qualità nell’interpretazione storiografica perché spiega in modo convincente come Paine traduca in discorso politico il passaggio da una società fortemente gerarchica come quella inglese, segnata dalla condizione di povertà e miseria comune alle diverse figure del lavoro, a una realtà sociale come quella americana decisamente più dinamica, dove il commercio e le terre libere a ovest offrono ampie possibilità di emancipazione e arricchimento attraverso il lavoro libero. Tuttavia, leggendo The Case of Officers of Excise (1772) e ricostruendo la sua attività editoriale alla guida del Pennsylvania Magazine (1775) è possibile giungere a una conclusione decisamente più complessa rispetto a quella suggerita dalla storiografia liberale: il commercio non sembra affatto definire una qualità non conflittuale del contesto atlantico. Piuttosto, nonostante l’assenza dell’antico ordine ‘cetuale’ europeo, esso investe la società di una tendenza alla trasformazione, la cui direzione, intensità e velocità dipendono anche dall’esito dello scontro politico in atto dentro la rivoluzione. Spostando l’attenzione su figure sociali che in quella letteratura sono di norma relegate in secondo piano, Paine mira infatti a democratizzare la concezione del commercio indicando nell’indipendenza personale la condizione comune alla quale poveri e lavoratori aspirano: per chi è coinvolto in prima persona nella lotta per l’indipendenza, la visione della società non indica allora un ordine naturale, dato e immutabile, quanto una scommessa sul futuro, un ideale che dovrebbe avviare un cambiamento sociale coerente con le diverse aspettative di emancipazione. Senza riconoscere questa valenza democratica del commercio non è possibile superare il consenso come presupposto incontestabile della Rivoluzione americana, nel quale tanto la storiografia repubblicana quanto quella librale tendono a cadere: non è possibile superare l’immagine statica della società americana, implicitamente descritta dalla prima, né andare oltre la visione di una società dinamica, ma priva di gerarchie e oppressione, come quella delineata dalla seconda. Le entusiastiche risposte e le violente critiche in favore e contro Common Sense, la dura polemica condotta in difesa o contro la costituzione radicale della Pennsylvania, la diatriba politica sul ruolo dei ricchi mercanti mostrano infatti una società in transizione lungo linee che sono contemporaneamente politiche e sociali. Dentro questo contesto conflittuale, repubblicanesimo e liberalismo non sembrano affatto competere l’uno contro l’altro per esercitare un’influenza egemone nella costruzione del governo rappresentativo. Vengono piuttosto mescolati e ridefiniti per rispondere alla pretese democratiche che provengono dalla parte bassa della società. Common Sense propone infatti un piano politico per l’indipendenza del tutto innovativo rispetto al modo nel quale le colonie hanno fino a quel momento condotto la controversia con la madre patria: la chiamata della convenzione rappresentativa di tutti gli individui per scrivere una nuova costituzione assume le sembianze di un vero e proprio potere costituente. Con la mobilitazione di ampie fasce della popolazione per vincere la guerra contro gli inglesi, le élite mercantili e proprietarie perdono il monopolio della parola e il processo decisionale è aperto anche a coloro che non hanno avuto voce nel governo coloniale. La dottrina dell’indipendenza assume così un carattere democratico. Paine non impiega direttamente il termine, tuttavia le risposte che seguono la pubblicazione di Common Sense lanciano esplicitamente la sfida della democrazia. Ciò mostra come la rivoluzione non possa essere letta semplicemente come affermazione ideologica del repubblicanesimo in continuità con la letteratura d’opposizione del Settecento britannico, o in alternativa come transizione non conflittuale al liberalismo economico e politico. Essa risulta piuttosto comprensibile nella tensione tra repubblicanesimo e democrazia: se dentro la rivoluzione (1776-1779) Paine contribuisce a democratizzare la società politica americana, allora – ed è questo un punto importante, non sufficientemente chiarito dalla storiografia – il recupero della letteratura repubblicana assume il carattere liberale di una strategia tesa a frenare le aspettative di chi considera la rivoluzione politica come un mezzo per superare la condizione di povertà e le disuguaglianze che pure segnano la società americana. La dialettica politica tra democrazia e repubblicanesimo consente di porre una questione fondamentale per comprendere la lunga vicenda intellettuale di Paine nella rivoluzione atlantica e anche il rapporto tra trasformazione sociale e rivoluzione politica: è possibile sostenere che in America la congiunzione storica di processo di accumulazione di ricchezza e costruzione del governo rappresentativo pone la società commerciale in transizione lungo linee capitalistiche? Questa non è certo una domanda che Paine pone esplicitamente, né in Paine troviamo una risposta esaustiva. Tuttavia, la sua collaborazione con i ricchi mercanti di Philadelphia suggerisce una valida direzione di indagine dalla quale emerge che il processo di costruzione del governo federale è connesso alla definizione di una cornice giuridica entro la quale possa essere realizzata l’accumulazione del capitale disperso nelle periferie dell’America indipendente. Paine viene così coinvolto in un frammentato e dilatato scontro politico dove – nonostante la conclusione della guerra contro gli inglesi nel 1783 – la rivoluzione non sembra affatto conclusa perché continua a muovere passioni che ostacolano la costruzione dell’ordine: leggere Paine fuori dalla rivoluzione (1780-1786) consente paradossalmente di descrivere la lunga durata della rivoluzione e di considerare la questione della transizione dalla forma confederale a quella federale dell’unione come un problema di limiti della democrazia. Ricostruire la vicenda politica e intellettuale di Paine in America permette infine di evidenziare un ambiguità costitutiva della società commerciale dentro la quale il progetto politico dei ricchi mercanti entra in tensione con un’attitudine popolare critica del primo processo di accumulazione che rappresenta un presupposto indispensabile all’affermazione del capitalismo. La rivoluzione politica apre in questo senso la società commerciale a una lunga e conflittuale transizione verso il capitalismo Ciò risulta ancora più evidente leggendo Paine in Europa (1791-1797). Da una sponda all’altra dell’Atlantico, con Rights of Man egli esplicita ciò che in America ha preferito mantenere implicito, pur raccogliendo la sfida democratica lanciata dai friend of Common Sense: il salto in avanti che la rivoluzione atlantica deve determinare nel progresso dell’umanità è quello di realizzare la repubblica come vera e propria democrazia rappresentativa. Tuttavia, il fallimento del progetto politico di convocare una convenzione nazionale in Inghilterra e la degenerazione dell’esperienza repubblicana francese nel Terrore costringono Paine a mettere in discussione quella fiducia nel commercio che la storiografia liberale ha con grande profitto mostrato: il mancato compimento della rivoluzione in Europa trova infatti spiegazione nella temporanea impossibilità di tenere insieme democrazia rappresentativa e società commerciale. Nel contesto europeo, fortemente disgregato e segnato da durature gerarchie e forti disuguaglianze, con The Agrarian Justice, Paine individua nel lavoro salariato la causa del contraddittorio andamento – di arricchimento e impoverimento – dello sviluppo economico della società commerciale. La tendenza all’accumulazione non è quindi l’unica qualità della società commerciale in transizione. Attraverso Paine, possiamo individuare un altro carattere decisivo per comprendere la trasformazione sociale, quello dell’affermazione del lavoro salariato. Non solo in Europa. Al ritorno in America, Paine non porta con sé la critica della società commerciale. Ciò non trova spiegazione esclusivamente nel minor grado di disuguaglianza della società americana. Leggendo Paine in assenza di Paine (1787-1802) – ovvero ricostruendo il modo nel quale dall’Europa egli discute, critica e influenza la politica americana – mostreremo come la costituzione federale acquisisca gradualmente la supremazia sulla conflittualità sociale. Ciò non significa che l’America indipendente sia caratterizzata da un unanime consenso costituzionale. Piuttosto, è segnata da un lungo e tortuoso processo di stabilizzazione che esclude la democrazia dall’immediato orizzonte della repubblica americana. Senza successo, Paine torna infatti a promuovere una nuova sfida democratica come nella Pennsylvania rivoluzionaria degli anni settanta. E’ allora possibile vedere come la rivoluzione atlantica venga stroncata su entrambe le sponde dell’oceano: i grandi protagonisti della politica atlantica che prendono direttamente parola contro l’agenda democratica painita – Edmund Burke, Boissy d’Anglas e John Quincy Adams – spostano l’attenzione dal governo alla società per rafforzare le gerarchie determinate dal possesso di proprietà e dall’affermazione del lavoro salariato. Dentro la rivoluzione atlantica, viene così svolto un preciso compito politico, quello di contribuire alla formazione di un ambiente sociale e culturale favorevole all’affermazione del capitalismo – dalla trasformazione commerciale della società alla futura innovazione industriale. Ciò emerge in tutta evidenza quando sulla superficie increspata dell’oceano Atlantico compare nuovamente Paine: a Londra come a New York. Abbandonando quella positiva visione del commercio come vettore di emancipazione personale e collettiva, nel primo trentennio del diciannovesimo secolo, i lavoratori delle prime manifatture compongono l’agenda radicale che Paine lascia in eredità in un linguaggio democratico che assume così la valenza di linguaggio di classe. La diversa prospettiva politica sulla società elaborata da Paine in Europa torna allora d’attualità, anche in America. Ciò consente in conclusione di discutere quella storiografia secondo la quale nella repubblica dal 1787 al 1830 il trionfo della democrazia ha luogo – senza tensione e conflittualità – insieme con la lineare e incontestata affermazione del capitalismo: leggere Paine nella rivoluzione atlantica consente di superare quell’approccio storiografico che tende a ricostruire la circolazione di un unico paradigma linguistico o di un’ideologia dominante, finendo per chiudere la grande esperienza rivoluzionaria atlantica in un tempo limitato – quello del 1776 o in alternativa del 1789 – e in uno spazio chiuso delimitato dai confini delle singole nazioni. Quello che emerge attraverso Paine è invece una società atlantica in transizione lungo linee politiche e sociali che tracciano una direzione di marcia verso il capitalismo, una direzione affatto esente dal conflitto. Neanche sulla sponda americana dell’oceano, dove attraverso Paine è possibile sottolineare una precisa congiunzione storica tra rivoluzione politica, costruzione del governo federale e transizione al capitalismo. Una congiunzione per la quale la sfida democratica non risulta affatto sconfitta: sebbene venga allontanata dall’orizzonte immediato della rivoluzione, nell’arco di neanche un ventennio dalla morte di Paine nel 1809, essa torna a muovere le acque dell’oceano – con le parole di Melville – come un violento accesso di febbre contagiosa destinato a turbare l’organismo costituzionalmente sano del mondo atlantico. Per questo, come scrive John Adams nel 1805 quella che il 1776 apre potrebbe essere chiamata “the Age of Folly, Vice, Frenzy, Brutality, Daemons, Buonaparte -…- or the Age of the burning Brand from the Bottomless Pit”. Non può però essere chiamata “the Age of Reason”, perché è l’epoca di Paine: “whether any man in the world has had more influence on its inhabitants or affairs for the last thirty years than Tom Paine” -…- there can be no severer satyr on the age. For such a mongrel between pig and puppy, begotten by a wild boar on a bitch wolf, never before in any age of the world was suffered by the poltroonery of mankind, to run through such a career of mischief. Call it then the Age of Paine”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obbiettivo lo sviluppo di composti di origine naturale come potenziali farmaci antitumorali, attraverso la definizione dei loro specifici target cellulari e molecolari su diversi modelli cellulari ad alta predittività. Gli isotiocianati, contenuti nei vegetali appartenenti alla famiglia delle Crucifereae, sono dotati di una comprovata capacità di inibire la formazione di tumori in modelli animali preventivamente trattati con cancerogeni. Questa attività è riconducibile principalmente alla modulazione degli enzimi coinvolti nell’attivazione/detossificazione di xenobiotici e ad effetti citostatici e citossici, osservati su numerose linee cellulari. Un isotiocianato particolarmente promettente è il sulforafane (SFN). La ricerca condotta durante il periodo di dottorato si è, quindi, focalizzata sull’isotiocianato SFN e in particolare sulla sua capacità di modulare specifici eventi cellulari e molecolari coinvolti nel processo di leucemogenesi. Inizialmente è stato indagato il potenziale citostatico e citotossico del SFN su una linea cellulare T linfoblastoide (cellule Jurkat), con particolare attenzione agli effetti sulla proliferazione cellulare, all’induzione di apoptosi/necrosi e all’analisi di alcuni dei meccanismi molecolari coinvolti negli effetti citostatici e citotossici dell’isotiocianato ( livelli proteici di p53, bax e bcl-2). Successivamente, poiché requisiti fondamentali di un antitumorale sono selettività d’azione e scarsa tossicità, è stato indagato il potenziale citostatico e citotossico dell’isotiocianato SFN sulla controparte non trasformata delle cellule leucemiche T linfoblastoidi, analizzando gli stessi eventi studiati su cellule tumorali e alcuni dei meccanismi molecolari coinvolti (livelli proteici di ciclina D2, ciclina D3, chinasi ciclina dipendente (CDK) 4 e CDK6 ). Il SFN si è dimostrato in grado di indurre apoptosi sulle cellule Jurkat e di inibirne la proliferazione, mediante un blocco in fase G2/M del ciclo cellulare e un incremento dei livelli di p53 e bax. Il SFN è in grado di indurre effetti citostatici e citotossici anche su linfociti T non trasformati. Tuttavia, le dosi necessarie per esibire tali effetti sono ben più elevate di quelle attive su cellule leucemiche. Una tappa importante nello sviluppo di un farmaco antitumorale è, la definizione, dove possibile, dei suoi effetti in un modello ex vivo, altamente predittivo di quella che sarà la risposta farmacologica in vivo. Sono stati quindi valutati gli effetti del SFN su colture primarie di blasti provenienti da pazienti affetti da diversi tipi di leucemia , sia mieloide che linfoblastica. Il SFN non sembra possedere alcuna attività su campioni da pazienti affetti da LLC, mentre un importante attività proapoptotica si registra nei campioni da pazienti affetti da LMA, dove l’effetto del SFN è sorprendentemente marcato anche su campioni da pazienti multiresistenti. L’attività dell’isotiocianato sui campioni da pazienti affetti da LLA è decisamente più marcata sul campione da paziente affetto da LLA a cellule B, mentre sul campione di Leucemia Acuta Bifenotipica l’effetto proapoptotico del SFN si registra dopo tempi di trattamento brevi piuttosto che dopo tempi di trattamento più lunghi. In conclusione, i risultati ottenuti evidenziano che il SFN possiede un’interessante attività antileucemica in vitro e, dato di particolare rilevanza, anche ex vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo studio è descrivere nel dettaglio la procedura di Valutazione Ambientale Strategica (VAS) relativa ai Piani Energetici Provinciali (PEP) al fine di delinearne un metodo efficace di valutazione, a partire dallo studio del caso della Provincia di Ravenna. In seguito alla mancanza di Linee Guida sulla VAS, si è ritenuta utile un´analisi comparativa tra metodologie e strumenti, e gli obiettivi specifici e generali che andrebbero rispettati in ogni VAS di un PEP. Lo studio si basa su confronti paralleli tra quattro casi di VAS di Piani Energetici Provinciali al fine di elaborare un modello di valutazione delle VAS, semplice e diretto, basato su contenuti teorici e metodologici provenienti da una selezione di studi e documenti nazionali e internazionali, di cui si è tenuto conto e da cui si sono estrapolate le migliori "Buone Pratiche" per la VAS. L´analisi seguente è stata effettuata attraverso matrici qualitative in cui, per ciascuna connessione tra metodologia e "obiettivo VAS" si è espresso un giudizio che cerca di tenere conto, quando possibile, dei criteri e dei principi generali di sostenibilità dettati dalle maggiori autorità e associazioni internazionali e nazionali di valutazione ambientale. Il confronto tra i quattro casi, ha evidenziato dei punti di debolezza nell´applicazione della Direttiva VAS. Questo studio inoltre, ha tra i suoi obiettivi, quello ambizioso di delineare un metodo efficace di valutazione strategica dei piani energetici provinciali, a partire dallo studio del caso della Provincia di Ravenna. Per questi obiettivi, si è deciso di impostare un programma di lavoro basato sui sistemi informativi geografici, che ha permesso di individuare le aree con potenziale di sviluppo energetico della risorsa solare. Nello specifico è stato possibile calcolare quanta “superficie utile”, presente nelle aree industriali e commerciali della Provincia, potrebbe essere sfruttata installandovi pannelli fotovoltaici. Si è riusciti con questa metodologia a fornire una stima più dettagliata delle reali potenzialità della risorsa solare in Provincia di Ravenna, individuando nel dettaglio territoriale le rispettive quote percentuali che potrebbero essere installate, per raggiungere gli obiettivi di sostenibilità del piano. Il percorso iniziato con questa tesi consente di riflettere sulla necessità di approfondire il tema del rapporto tra valutazione ambientale qualitativa di uno strumento di pianificazione come la VAS, e la stima quantitativa sia della sostenibilità che del danno ambientale legato agli impatti negativi che questo strumento dovrebbe rilevare. Gli sviluppi futuri cui la tesi pone le basi sono l'implementazione di strumenti quantitativi di analisi delle potenzialità energetiche e di valutazione degli scenari. Questi strumenti sono necessari a definire i modelli ambientali per il supporto alle decisioni in campo energetico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto della presente dissertazione è inerente aspetti affidabilistici e diagnostici dei componenti delle reti elettriche. Sono stati condotti studi sul ruolo svolto dai parametri presenti nei modelli affidabilistici utilizzati in presenza di regimi distorti. I risultati ottenuti nel corso della ricerca, indicano chiaramente come anche il fattore efficace Krms e, soprattutto, il fattore di forma, Kf, sotto certe condizioni, possano avere effetti considerevoli sulla degradazione degli isolanti (a volte con contributi perfino maggiori di quello dato dal ben noto fattore di picco, Kp, considerato predominante). Viene inoltre riportata un’indagine sviluppata sui principali Dispositivi Automatizzati per il Controllo degli Isolamenti (AIMS), attualmente disponibili sul mercato. Sono illustrati e discussi innovativi modelli di rischio integrati, sviluppati per integrare informazioni fornite dall’analisi affidabilistica tradizionale con misure di proprietà diagnostiche, acquisite grazie ad un monitoraggio costante dei componenti in servizio. L’impiego di tali modelli permetterebbe di ottenere una manutenzione di tipo affidabilistico-diagnostico, basata sull’effettiva condizione del componente in esame (manutenzione tipo CBM), piuttosto che su scadenze temporali fissate a priori (manutenzione di tipo TBM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Premessa: nell’aprile 2006, l’American Heart Association ha approvato la nuova definizione e classificazione delle cardiomiopatie (B. J. Maron e coll. 2006), riconoscendole come un eterogeneo gruppo di malattie associate a disfunzione meccanica e/o elettrica riconducibili ad un ampia variabilità di cause. La distinzione tra le varie forme si basa non più sui processi etiopatogenetici che ne sono alla base, ma sulla modalità di presentazione clinica della malattia. Si distinguono così le forme primarie, a prevalente od esclusivo interessamento cardiaco, dalle forme secondarie in cui la cardiomiopatia rientra nell’ambito di un disordine sistemico dove sono evidenziabili anche disturbi extracardiaci. La nostra attenzione è, nel presente studio, focalizzata sull’analisi delle cardiomiopatie diagnosticate nei primi anni di vita in cui si registra una più alta incidenza di forme secondarie rispetto all’adulto, riservando un particolare riguardo verso quelle forme associate a disordini metabolici. Nello specifico, il nostro obiettivo è quello di sottolineare l’influenza di una diagnosi precoce sull’evoluzione della malattia. Materiali e metodi: abbiamo eseguito uno studio descrittivo in base ad un’analisi retrospettiva di tutti i pazienti giunti all’osservazione del Centro di Cardiologia e Cardiochirurgia Pediatrica e dell’ Età Evolutiva del Policlinico S. Orsola- Malpighi di Bologna, dal 1990 al 2006, con diagnosi di cardiomiopatia riscontrata nei primi due anni di vita. Complessivamente sono stati studiati 40 pazienti di cui 20 con cardiomiopatia ipertrofica, 18 con cardiomiopatia dilatativa e 2 con cardiomiopatia restrittiva con un’età media alla diagnosi di 4,5 mesi (range:0-24 mesi). Per i pazienti descritti a partire dal 2002, 23 in totale, sono state eseguite le seguenti indagini metaboliche: emogasanalisi, dosaggio della carnitina, metabolismo degli acidi grassi liberi (pre e post pasto), aminoacidemia quantitativa (pre e post pasto), acidi organici, mucopolisaccaridi ed oligosaccaridi urinari, acilcarnitine. Gli stessi pazienti sono stati inoltre sottoposti a prelievo bioptico di muscolo scheletrico per l’analisi ultrastrutturale, e per l’analisi dell’attività enzimatica della catena respiratoria mitocondriale. Nella stessa seduta veniva effettuata la biopsia cutanea per l’eventuale valutazione di deficit enzimatici nei fibroblasti. Risultati: l’età media alla diagnosi era di 132 giorni (range: 0-540 giorni) per le cardiomiopatie ipertrofiche, 90 giorni per le dilatative (range: 0-210 giorni) mentre le 2 bambine con cardiomiopatia restrittiva avevano 18 e 24 mesi al momento della diagnosi. Le indagini metaboliche eseguite sui 23 pazienti ci hanno permesso di individuare 5 bambini con malattia metabolica (di cui 2 deficit severi della catena respiratoria mitocondriale, 1 con insufficienza della β- ossidazione per alterazione delle acilcarnitine , 1 con sindrome di Barth e 1 con malattia di Pompe) e un caso di cardiomiopatia dilatativa associata a rachitismo carenziale. Di questi, 4 sono deceduti e uno è stato perduto al follow-up mentre la forma associata a rachitismo ha mostrato un netto miglioramento della funzionalità cardiaca dopo appropriata terapia con vitamina D e calcio. In tutti la malattia era stata diagnosticata entro l’anno di vita. Ciò concorda con gli studi documentati in letteratura che associano le malattie metaboliche ad un esordio precoce e ad una prognosi infausta. Da un punto di vista morfologico, un’evoluzione severa si associava alla forma dilatativa, ed in particolare a quella con aspetto non compaction del ventricolo sinistro, rispetto alla ipertrofica e, tra le ipertrofiche, alle forme con ostruzione all’efflusso ventricolare. Conclusioni: in accordo con quanto riscontrato in letteratura, abbiamo visto come le cardiomiopatie associate a forme secondarie, ed in particolare a disordini metabolici, sono di più frequente riscontro nella prima infanzia rispetto alle età successive e, per questo, l’esordio molto precoce di una cardiomiopatia deve essere sempre sospettata come l’espressione di una malattia sistemica. Abbiamo osservato, inoltre, una stretta correlazione tra l’età del bambino alla diagnosi e l’evoluzione della cardiomiopatia, registrando un peggioramento della prognosi in funzione della precocità della manifestazione clinica. In particolare la diagnosi eseguita in epoca prenatale si associava, nella maggior parte dei casi, ad un’evoluzione severa, comportandosi come una variabile indipendente da altri fattori prognostici. Riteniamo, quindi, opportuno sottoporre tutti i bambini con diagnosi di cardiomiopatia effettuata nei primi anni di vita ad uno screening metabolico completo volto ad individuare quelle forme per le quali sia possibile intraprendere una terapia specifica o, al contrario, escludere disordini che possano controindicare, o meno, l’esecuzione di un trapianto cardiaco qualora se ne presenti la necessità clinica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Italia, il contesto legislativo e l’ambiente competitivo dei Confidi è profondamente mutato negli ultimi anni a seguito dell’emanazione di due nuove normative: la “Legge Quadro” sui Confidi e la nuova regolamentazione del capitale di vigilanza nelle banche (c.d. "Basilea 2"). la Legge Quadro impone ai Confidi di adottare uno dei seguenti status societari: i) ente iscritto all’albo di cui all’art. 106 del Testo Unico Bancario (TUB); ii) ente iscritto all’albo di cui all’art. 107 del Testo Unico Bancario; iii) banca cooperativa di garanzia collettiva dei fidi. Fermi restando i requisiti soggettivi sui garanti ammessi da Basilea 2, la modalità tecnica finora utilizzata dai Confidi non risponde ai requisiti oggettivi. Il pensiero strategico si enuclea nelle seguenti domande: A) qual è la missione del Confidi (perché esistono i Confidi)? B) Quali prodotti e servizi dovrebbero offrire per raggiungere la loro missione? C) Quale modello organizzativo e di governance si conforma meglio per l'offerta dei prodotti e servizi individuati come necessari per il raggiungimento della missione? Le riflessioni condotte nell’ambito di un quadro di riferimento delineato dal ruolo delle garanzie nel mercato del credito bancario, dalle “Nuove disposizioni di vigilanza prudenziale per le banche”, dalla “Legge Quadro” sui e, infine, dall’assetto istituzionale ed operativo dei Confidi si riassumono nelle seguenti deduzioni: Proposizione I: segmentare la domanda prima di adeguare l’offerta; Proposizione II: le operazioni tranched cover sono un'alternativa relativamente efficiente per l'operatività dei Confidi, anche per quelli non vigilati; Proposizione III: solo i Confidi‐banca hanno la necessità di dotarsi di un rating esterno; Proposizione IV: le banche sono nuovi Clienti dei Confidi: offrire servizi di outsourcing (remunerati), ma non impieghi di capitale; Proposizione V: le aggregazioni inter settoriali nel medesimo territorio sono da preferirsi alle aggregazioni inter territoriali fra Confidi del medesimo settore. Alle future ricerche è affidato il compito di verificare: quali opzioni strategiche nel concreato siano state applicate; quali siano state le determinati di tali scelte; il grado di soddisfacimento dei bisogni degli stakeholder dei Confidi; misurare i benefici conseguiti nell'efficienza allocativa del credito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo documento descrive gran parte del lavoro svolto durante un periodo di studio di sei mesi all’International Centre for Geohazards (ICG) di Oslo. Seguendo la linea guida dettata nel titolo, sono stati affrontati diversi aspetti riguardanti la modellazione numerica dei pendii quali l’influenza delle condizioni al contorno e delle proporzioni del modello, la back-analysis di eventi di scivolamento e l’applicazione delle analisi di stabilità monodimensionali. La realizzazione di semplici modelli con il programma agli elementi finiti PLAXIS (Brinkgreve et al., 2008) ha consentito di analizzare le prestazioni dei modelli numerici riguardo all’influenza delle condizioni al contorno confrontandoli con un calcolo teorico del fattore di amplificazione. Questa serie di test ha consentito di stabilire alcune linee guida per la realizzazione di test con un buon livello di affidabilità. Alcuni case-history, in particolare quello di Las Colinas (El Salvador), sono stati modellati allo scopo di applicare e verificare i risultati ottenuti con i semplici modelli sopracitati. Inoltre sono state svolte analisi di sensitività alla dimensione della mesh e ai parametri di smorzamento e di elasticità. I risultati hanno evidenziato una forte dipendenza dei risultati dai parametri di smorzamento, rilevando l’importanza di una corretta valutazione di questa grandezza. In ultima battuta ci si è occupati dell’accuratezza e dell’applicabilità dei modelli monodimensionali. I risultati di alcuni modelli monodimensionali realizzati con il software Quiver (Kaynia, 2009) sono stati confrontati con quelli ottenuti da modelli bidimensionali. Dal confronto è risultato un buon grado di approssimazione accompagnato da un margine di sicurezza costante. Le analisi monodimensionali sono poi state utilizzate per la verifica di sensitività. I risultati di questo lavoro sono qui presentati e accompagnati da suggerimenti qualitativi e quantitativi per la realizzazione di modelli bidimensionali affidabili. Inoltre si descrive la possibilità di utilizzare modelli monodimensionali in caso d’incertezze sui parametri. Dai risultati osservati emerge la possibilità di ottenere un risparmio di tempo nella realizzazione di importanti indagini di sensitività.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di dottorato “Buoni cibi per buoni pensieri. Rituali di consumo alimentare tra flussi di globalizzazione e pratiche di localizzazione” verte attorno allo studio e all’approfondimento della sociologia dei consumi, con particolare riferimento alle relazioni che si possono instaurare tra i comportamenti alimentari collettivi a livello locale e il sistema globale. Il focus dell’analisi si incentra sulla sostenibilità dei consumi, fenomenologia esemplificativa di una modalità di rapporto degli uomini con i cibi innovativa e al contempo nient’affatto scontata: non soltanto a livello individual-collettivo come strumento di intelligibilità sociale e costruzione di senso, ma anche sul piano sistemico come rapporto con l’ambiente e il mondo circostante. In effetti, il percorso di studi che ha condotto all’elaborazione teorica ed empirica della tesi di dottorato, pur muovendo da studi radicati nella letteratura socio-antropologica come il consumo dei cibi e la cultura da essi veicolata, viene oggi inquadrata all’interno di nuovi scenari sullo sfondo del mutamento socioeconomico: le pratiche di sostenibilità causate dalle ambivalenti ripercussioni giocate dalla globalizzazione sui sistemi sociali. Se è vero infatti che oggi si vive in una società complessa, caratterizzata dalla crescente centralità del sistema del consumo rispetto agli altri sottosistemi, è evidente come una ri-lettura critica delle sue dimensioni simboliche ed intersoggettive nel senso del ridimensionamento degli aspetti legati alla mercificazione e al materialismo, faccia sì che la tesi dottorale si orienti sulla ricerca di una sostenibilità oggi tanto diffusa, da sostanziarsi sempre più anche nelle pratiche di consumo alimentare. Oggetto specifico di questo lavoro sono dunque, senza pretesa di esaustività ma rappresentative del contesto spaziale preso in esame, fenomenologie del consumo alimentare italiano all’interno di uno scenario globale: in particolare, si affronta la nuova cultura della sostenibilità che nasce dall’incontro fra i cittadini-consumatori e le complesse tematiche emergenti del sistema sociale di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.