196 resultados para Isolamento sismico alla base, Seismic isolation, Spectral response, Analisi sismica dinamica lineare con spettro di risposta, Isolatori, HDRB, Isolatori a pendolo scorrevole, Isolatori in gomma, Analisi modale.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è il frutto di un lavoro di ricerca sul rapporto tra educazione e politica sviluppato considerando letteratura, studi e ricerche in ambito pedagogico, sociologico e delle scienze politiche. I nuclei tematici oggetto delle letture preliminari e degli approfondimenti successivi che sono diventati il corpo della tesi sono i seguenti: • la crisi del ruolo dei partiti politici in Italia e in Europa: diminuiscono gli iscritti e la capacità di dare corpo a proposte politiche credibili che provengano dalla “base”dei partiti; • la crisi del sistema formativo1 in Italia e il fatto che l’educazione alla cittadinanza sia poco promossa e praticata nelle scuole e nelle istituzioni; • la diffusa mancanza di fiducia degli adolescenti e dei giovani nei confronti delle istituzioni (scuola inclusa) e della politica in molti Paesi del mondo2; i giovani sono in linea con il mondo adulto nel dimostrare i sintomi di “apatia politica” che si manifesta anche come avversione verso la politica; • il fatto che le teorie e gli studi sulla democrazia non siano stati in grado di prevenire la sistematica esclusione di larghi segmenti di cittadinanza dalle dinamiche decisionali dimostrando che la democrazia formale sia drasticamente differente da quella sostanziale. Una categoria tra le più escluse dalle decisioni è quella dei minori in età. Queste tematiche, se poste in relazione, ci inducono a riflettere sullo stato della democrazia e ci invitano a cercare nuovi orizzonti in cui inserire riflessioni sulla cittadinanza partendo dall’interesse centrale delle scienze pedagogiche: il ruolo dell’educazione. Essenziale è il tema dei diritti umani: per cominciare, rileviamo che sebbene la Convenzione internazionale sui diritti dell’infanzia sia stata approvata da quasi vent’anni (nel 1989) e malgrado numerose istituzioni nazionali e internazionali (Onu, Consiglio d’Europa, Banca Mondiale, Unesco) continuino ad impegnarsi nella promozione dei diritti sanciti e ratificati con leggi da quasi tutti i Paesi del mondo, questi diritti sono spesso trascurati: in particolare i diritti di bambini, adolescenti e giovani fino a 18 anni ad essere ascoltati, ad esprimersi liberamente, a ricevere informazioni adeguate nonché il diritto ad associarsi. L’effetto di tale trascuratezza, ossia la scarsa partecipazione di adolescenti e giovani alla vita sociale e politica in ogni parte del mondo (Italia inclusa) è un problema su cui cercheremo di riflettere e trovare soluzioni. Dalle più recenti ricerche svolte sul rapporto tra giovani e politica3, risulta che sono in particolare i giovani tra i quindici e i diciassette anni a provare “disgusto” per la politica e a non avere alcune fiducia né nei confronti dei politici, né delle istituzioni. Il disgusto è strettamente legato alla sfiducia, alla delusione , alla disillusione che oltretutto porta al rifiuto per la politica e quindi anche a non informarsi volutamente, a tenere ciò che riguarda la politica lontano dalla propria sfera personale. In Italia, ciò non è una novità. Né i governi che si sono succeduti dagli anni dell’Unità ad oggi, né le teorie democratiche italiane e internazionali sono riusciti a cambiare l’approccio degli italiani alla politica: “fissità della cultura politica, indolenza di fronte alla mancanza di cultura della legalità, livelli bassi di informazione, di competenza, di fiducia nella democrazia”4. Tra i numerosi fattori presi in analisi nelle ricerche internazionali (cfr. Cap. I par.65) ve ne sono due che si è scoperto influenzano notevolmente la partecipazione politica della popolazione e che vedono l’Italia distante dalle altre democrazie europee: 1) la vicinanza alla religione istituzionale , 2) i caratteri della morale6. Religione istituzionale Non c’è studio o ricerca che non documenti la progressiva secolarizzazione degli stati. Eppure, dividendo la popolazione dei Paesi in: 1) non credenti, 2) credenti non praticanti e 3) credenti praticanti, fatto salvo per la Francia, si assiste ad una crescita dei “credenti non praticanti” in Europa e dei “credenti praticanti” in particolare in Italia (risultavano da un’indagine del 2005, il 42% della popolazione italiana). La spiegazione di questa “controtendenza” dell’Italia, spiega la Sciolla, “potrebbe essere il crescente ruolo pubblico assunto dalla Chiesa italiana e della sua sempre più pervasiva presenza su temi di interesse pubblico o direttamente politico (dalla fecondazione assistita alle unioni tra omosessuali) oltreché alla sua visibilità mediatica che, insieme al generale e diffuso disorientamento, potrebbe aver esercitato un autorevole richiamo”. Pluralismo morale Frutto innanzitutto del processo di individualizzazione che erode le forme assolute di autorità e le strutture gerarchiche e dell’affermarsi dei diritti umani con l’ampliamento degli spazi di libertà di coscienza dei singoli. Una conferma sul piano empirico di questo quadro è data dal monitoraggio di due configurazioni valoriali che più hanno a che vedere con la partecipazione politica: 1) Grado di civismo (in inglese civicness) che raggruppa giudizi sui comportamenti lesivi dell’interesse pubblico (non pagare le tasse, anteporre il proprio interesse e vantaggio personale all’interesse pubblico). 2) Libertarismo morale o cultura dei diritti ovvero difesa dei diritti della persona e della sua liberà di scelta (riguarda la sessualità, il corpo e in generale la possibilità di disporre di sé) In Italia, il civismo ha subito negli anni novanta un drastico calo e non è più tornato ai livelli precedenti. Il libertarismo è invece aumentato in tutti i Paesi ma Italia e Stati Uniti hanno tutt’ora un livello basso rispetto agli altri Stati. I più libertari sono gli strati giovani ed istruiti della popolazione. Queste caratteristiche degli italiani sono riconducibili alla storia del nostro Paese, alla sua identità fragile, mai compatta ed unitaria. Non è possibile tralasciare l’influenza che la Chiesa ha sempre avuto nelle scelte politiche e culturali del nostro Paese. Limitando il campo al secolo scorso, dobbiamo considerare che la Chiesa cattolica ha avuto continuativamente un ruolo di forte ingerenza nei confronti delle scelte dei governi (scelte che, come vedremo nel Cap. I, par.2 hanno influenzato le scelte sulla scuola e sull’educazione) che si sono succeduti dal 1948 ad oggi7. Ciò ha influito nei costumi della nostra società caratterizzandoci come Stato sui generis nel panorama europeo Inoltre possiamo definire l’Italia uno "Stato nazionale ed unitario" ma la sua identità resta plurinazionale: vi sono nazionalità, trasformate in minoranze, comprese e compresse nel suo territorio; lo Stato affermò la sua unità con le armi dell'esercito piemontese e questa unità è ancora da conquistare pienamente. Lo stesso Salvemini fu tra quanti invocarono un garante per le minoranze constatando che di fronte a leggi applicate da maggioranze senza controllo superiore, le minoranze non hanno sicurezza. Riteniamo queste riflessioni sull’identità dello Stato Italiano doverose per dare a questa ricerca sulla promozione della partecipazione politica di adolescenti e giovani, sull’educazione alla cittadinanza e sul ruolo degli enti locali una opportuna cornice culturale e di contesto. Educazione alla cittadinanza In questo scritto “consideriamo che lo stimolo al cambiamento e al controllo di ciò che succede nelle sfere della politica, la difesa stessa della democrazia, è più facile che avvenga se i membri di una comunità, singolarmente o associandosi, si tengono bene informati, possiedono capacità riflessive e argomentative, sono dunque adeguatamente competenti e in grado di formarsi un’opinione autonoma e di esprimerla pubblicamente. In questo senso potremmo dire che proprio l’educazione alla democrazia, di chi nella democrazia vive, godendone i vantaggi, è stata rappresentata da Montiesquieu e da J.S Mill come uno dei caratteri basilari della democrazia stessa e la sua assenza come uno dei peggiori rischi in cui si può incorrere”8 L’educazione alla cittadinanza - considerata come cornice di un ampio spettro di competenze, complessivamente legate alla partecipazione e pienamente consapevole alla vita politica e sociale - e in particolare la formazione alla cittadinanza attiva sono da tempo riconosciute come elementi indispensabili per il miglioramento delle condizioni di benessere dei singoli e delle società e sono elementi imprescindibili per costituire un credibile patto sociale democratico. Ma che tipo di sistema formativo meglio si adatta ad un Paese dove - decennio dopo decennio - i decisori politici (la classe politica) sembrano progressivamente allontanarsi dalla vita dei cittadini e non propongono un’idea credibile di stato, un progetto lungimirante per l’Italia, dove la politica viene vissuta come distante dalla vita quotidiana e dove sfiducia e disgusto per la politica sono sentimenti provati in particolare da adolescenti e giovani? Dove la religione e il mercato hanno un potere concorrente a quello dei principi democratici ? La pedagogia può in questo momento storico ricoprire un ruolo di grande importanza. Ma non è possibile formulare risposte e proposte educative prendendo in analisi una sola istituzione nel suo rapporto con adolescenti e giovani. Famiglia, scuola, enti locali, terzo settore, devono essere prese in considerazione nella loro interdipendenza. Certo, rispetto all’educazione alla cittadinanza, la scuola ha avuto, almeno sulla carta, un ruolo preminente avendo da sempre l’obiettivo di formare “l’uomo e il cittadino” e prevedendo l’insegnamento dell’educazione civica. Ma oggi, demandare il ruolo della “formazione del cittadino” unicamente alla scuola, non è una scelta saggia. La comunità, il territorio e quindi le istituzioni devono avere un ruolo forte e collaborare con la scuola. Educazione formale, non formale e informale devono compenetrarsi. Gli studi e le riflessioni della scrivente hanno portato all’ individuazione degli enti locali come potenziali luoghi privilegiati della formazione politica dei giovani e dell’educazione alla cittadinanza. Gli enti locali I Comuni, essendo le Istituzioni più vicine ai cittadini, possono essere il primo luogo dove praticare cittadinanza attiva traducendo in pratiche anche le politiche elaborate a livello regionale e nazionale. Sostiene la Carta riveduta della partecipazione dei giovani9 “La partecipazione attiva dei giovani alle decisioni e alle attività a livello locale e regionale è essenziale se si vogliono costruire società più democratiche, solidali e prospere. Partecipare alla vita politica di una comunità, qualunque essa sia, non implica però unicamente il fatto di votare e presentarsi alle elezioni, per quanto importanti siano tali elementi. Partecipare ed essere un cittadino attivo vuol dire avere i diritti, gli strumenti intellettuali e materiali, il luogo, la possibilità, e, se del caso, il necessario sostegno per intervenire nelle decisioni, influenzarle ed impegnarsi in attività e iniziative che possano determinare la costruzione di una società migliore”. In Italia, il ruolo degli enti locali è stato per lo più dominante nella definizione delle politiche sociali, sanitarie ed educative ma è divenuto centrale soprattutto in seguito alla riforma del titolo V della Costituzione italiana operata nel 2001. Sono gli enti locali – le Regioni in primis – ad avere la funzione istituzionale di legiferare rispetto ai temi inerenti il sociale. Le proposte e le azioni di Province e Comuni dovrebbero ispirarsi al “principio di sussidiarietà” espresso nell’art. 118 della Costituzione: «Stato, Regioni, Province, Città metropolitane, Comuni favoriscono l’autonoma iniziativa dei cittadini singoli e associati, per lo svolgimento di attività di interesse generale, sulla base del principio di sussidiarietà»10 e nei Trattati dell’Unione Europea. Il Trattato istitutivo della Comunità europea accoglie il principio nell’art.5 “La Comunità agisce nei limiti delle competenze che le sono conferite e degli obiettivi che le sono assegnati dal presente trattato. Nei settori che non sono di sua esclusiva competenza la Comunità interviene, secondo il principio della sussidiarietà, soltanto se e nella misura in cui gli obiettivi dell'azione prevista non possono essere sufficientemente realizzati dagli Stati membri e possono dunque, a motivo delle dimensioni o degli effetti dell'azione in questione, essere realizzati meglio a livello comunitario (…)”. Il principio di sussidiarietà può dunque essere recepito anche prevedendo, promuovendo e accogliendo la partecipazione dei cittadini alla vita della città in molteplici forme. Conseguentemente, facilitare l’avvicinamento degli adolescenti e dei giovani (in quanto cittadini) alla vita collettiva, al bene pubblico, alla politica considerandoli una risorsa e mettendoli nelle condizioni di essere socialmente e politicamente attivi rientra nelle possibili applicazioni del principio di sussidiarietà. L’oggetto della ricerca La ricerca condotta dalla scrivente prende le mosse dal paradigma ecologico e si ispira allo stile fenomenologico prendendo in analisi un contesto determinato da numerosi soggetti tra loro interrelati. La domanda di ricerca: “gli enti locali possono promuovere di progetti e interventi di educazione alla cittadinanza di cui adolescenti e giovani siano protagonisti? Se si, in che modo?”. Gli studi preliminari alla ricerca hanno mostrato uno scenario complesso che non era mai stato preso in analisi da chi si occupa di educazione. E’ stato dunque necessario comprendere: 1) Il ruolo e le funzioni degli enti locali rispetto alle politiche educative e di welfare in generale in Italia 2) La condizione di adolescenti e giovani in Italia e nel mondo 3) Che cos’è l’educazione alla cittadinanza 4) Che cosa si può intendere per partecipazione giovanile Per questo il lavoro di ricerca empirica svolto dalla scrivente è basato sulla realizzazione di due indagini esplorative (“Enti locali, giovani e politica (2005/2006)11 e “Nuovi cittadini di pace” (2006/2007)12) tramite le quali è stato possibile esaminare progetti e servizi di promozione della partecipazione degli adolescenti e dei giovani alla vita dei Comuni di quattro regioni italiane e in particolare della Regione Emilia-Romagna. L’oggetto dell’interesse delle due indagini è (attraverso l’analisi di progetti e servizi e di testimonianze di amministratori, tecnici e politici) esplorare le modalità con cui gli enti locali (i Comuni in particolare) esplicano la loro funzione formativa rivolta ad adolescenti e giovani in relazione all’educazione alla cittadinanza democratica. Ai fini delle nostre riflessioni ci siamo interessati di progetti, sevizi permanenti e iniziative rivolti alla fascia d’età che va dagli 11 ai 20/22 anni ossia quegli anni in cui si giocano molte delle sfide che portano i giovani ad accedere al mondo degli adulti in maniera “piena e autentica” o meno. Dall’analisi dei dati, emergono osservazioni su come gli enti locali possano educare alla cittadinanza in rete con altre istituzioni (la scuola, le associazioni), promuovendo servizi e progetti che diano ad adolescenti e giovani la possibilità di mettersi all’opera, di avere un ruolo attivo, realizzare qualche cosa ed esserne responsabili (e nel frattempo apprendere come funziona e che cos’è il governo di una città, di un territorio), intrecciare relazioni, lavorare in gruppo, in una cornice che va al di là delle politiche giovanili e che propone politiche integrate. In questo contesto il ruolo degli adulti (genitori, insegnanti, educatori, politici) è centrale: è dunque essenziale che le famiglie, il mondo della scuola, gli attivisti dei partiti politici, le istituzioni e il mondo dell’informazione attraverso l’agire quotidiano, dimostrino ad adolescenti e giovani coerenza tra azioni e idee dimostrando fiducia nelle istituzioni, tenendo comportamenti coerenti e autorevoli improntati sul rispetto assoluto della legalità, per esempio. Per questo, la prima fase di approfondimento qualitativo delle indagini è avvenuta tramite interviste in profondità a decisori politici e amministratori tecnici. Il primo capitolo affronta il tema della crisi della democrazia ossia il fatto che le democrazie odierne stiano vivendo una fase di dibattito interno e di riflessione verso una prospettiva di cambiamento necessaria. Il tema dell’inserimento dei diritti umani nel panorama del dibattito sulle società democratiche e sulla cittadinanza si intreccia con i temi della globalizzazione, della crisi dei partiti politici (fenomeno molto accentuato in Italia). In questa situazione di smarrimento e di incertezza, un’operazione politica e culturale che metta al primo posto l’educazione e i diritti umani potrebbe essere l’ancora di salvezza da gettare in un oceano di incoerenza e di speranze perdute. E’ necessario riformare il sistema formativo italiano investendo risorse sull’educazione alla cittadinanza in particolare per adolescenti e giovani ma anche per coloro che lavorano con e per i giovani: insegnanti, educatori, amministratori. La scolarizzazione, la formazione per tutto l’arco della vita sono alcuni dei criteri su cui oggi nuovi approcci misurano il benessere dei Paesi e sono diritti inalienabili sanciti, per bambini e ragazzi dalla Convenzione internazionale sui diritti dell’infanzia.13 La pedagogia e la politica devono avere in questo momento storico un ruolo di primo piano; gli obiettivi a cui dovrebbero tendere sono la diffusione di una cultura dei diritti, una cultura del rispetto dell’infanzia e di attenzione prioritaria ai temi del’educazione alla cittadinanza. “Rimuovere gli ostacoli sociali ed economici”14 a che questi diritti vengano rispettati è compito dello Stato e anche degli enti locali. Il secondo capitolo descrive la condizione dei giovani nel mondo e in Italia in rapporto ai diritti di partecipazione. Il contesto mondiale che la Banca Mondiale (organismo dell’Onu)15 dipinge è potenzialmente positivo: “il numero di giovani tra i 12 e i 24 anni è intorno a 1, 3 miliardi ossia il livello più elevato della storia; questo gruppo è in migliore salute e meglio istruito di sempre. I Paesi ricchi come quelli poveri devono approfittare di questa opportunità prima che l’invecchiamento della società metta fine a questo periodo potenzialmente assai fruttuoso per il mondo intero. In Italia invece “Viene dipinto un quadro deprimente in cui “gli adulti mandano segnali incerti, ambigui, contraddittori. Se si può dunque imputare qualcosa alle generazioni dei giovani oggi è di essere, per certi versi, troppo simili ai loro padri e alle loro madri”16 Nel capitolo vengono mostrati e commentati i dati emersi da rapporti e ricerche di organizzazioni internazionali che dimostrano come anche dal livello di istruzione, di accesso alla cultura, ma in particolare dal livello di partecipazione attiva alla vita civica dei giovani, dipenda il futuro del globo intero e dunque anche del nostro Paese . Viene inoltre descritto l’evolversi delle politiche giovanili in Italia anche in rapporto al mutare del significato del concetto controverso di “partecipazione”: il termine è presente in numerose carte e documenti internazionali nonché utilizzato nei programmi politici delle amministrazioni comunali ma sviscerarne il significato e collocarlo al di fuori dei luoghi comuni e dell’utilizzo demagogico obbliga ad un’analisi approfondita e multidimensionale della sua traduzione in azioni. Gli enti locali continuano ad essere l’oggetto principale del nostro interesse. Per questo vengono riportati i risultati di un’indagine nazionale sui servizi pubblici per adolescenti che sono utili per contestualizzare le indagini regionali svolte dalla scrivente. Nel terzo capitolo si esamina l’ “educazione alla cittadinanza” a partire dalla definizione del Consiglio d’Europa (EDC) cercando di fornire un quadro accurato sui contenuti che le pertengono ma soprattutto sulle metodologie da intraprendere per mettere autenticamente in pratica l’EDC. La partecipazione di adolescenti e giovani risulta essere un elemento fondamentale per promuovere e realizzare l’educazione alla cittadinanza in contesti formali, non formali e informali. Il quarto capitolo riporta alcune riflessioni sulla ricerca pedagogica in Italia e nel panorama internazionale e pone le basi ontologiche ed epistemologiche della ricerca svolta dalla scrivente. Nel quinto capitolo vengono descritte dettagliatamente le due indagini svolte dalla scrivente per raccogliere dati e materiali di documentazione sui progetti di promozione della partecipazione dei giovani promossi dagli Enti locali emiliano-romagnoli ai fini dell’educazione alla cittadinanza. “Enti locali, giovani e politica” indagine sui progetti di promozione della partecipazione sociale e politica che coinvolgono ragazzi tra i 15 e i 20 anni. E “Nuovi cittadini di pace”, un’indagine sui Consigli dei ragazzi nella Provincia di Bologna. Nel sesto capitolo la scrivente formula alcune conclusioni e proposte operative concentrando la propria attenzione in particolare sulle questione della formazione di educatori e facilitatori che operano in contesti di educazione non formale interistituzionale, sulla necessità di una ampia diffusione di una cultura dei diritti dell’infanzia e dell’adolescenza nel mondo della politica e della scuola e su un utilizzo del dialogo autentico (in quanto principio democratico) per far sì che adolescenti, giovani e adulti possano collaborare e contribuire insieme alla formulazione di politiche e alla realizzazione di progetti comuni. Ci sembra infine che si debba riconoscere che è tempo di puntare con tutte le forze e in tutti i setting educativi disponibili su un impegno formativo in cui la dimensione politica non solo sia chiaramente e consapevolmente presente, ma sia considerata una delle sue caratteristiche principali. Il nostro tempo lo richiede con urgenza: l’alternativa rischia di essere la disfatta dell’intera umanità e dunque l’impossibilità per l’uomo di realizzarsi nel suo più elevato significato e nel suo autentico valore. I giovani sempre più lo chiedono anche se non sempre utilizzano linguaggi decifrabili dagli adulti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Members of the genera Campylobacter and Helicobacter have been in the spotlight in recent decades because of their status as animals and/or humans pathogens, both confirmed and emerging, and because of their association with food-borne and zoonotic diseases. First observations of spiral shaped bacteria or Campylobacter-like organisms (CLO) date back to the end of the 19th century, however the lack of adequate isolation methods hampered further research. With the introduction of methods such as selective media and a filtration procedure during the 1970s led to a renewed interest in Campylobacter, especially as this enabled elucidation of their role in human hosts. On the other hand the classification and identification of these bacteria was troublesome, mainly because of the biochemical inertness and fastidious growth requirements. In 1991, the taxonomy of Campylobacter and related organisms was thoroughly revised, since this revision several new Campylobacter and Helicobacter species have been described. Moreover, thanks to the introduction of a polyphasic taxonomic practice, the classification of these novel species is well-founded. Indeed, a polyphasic approach was here followed for characterizing eight isolates obtained from rabbits epidemiologically not correlated and as a result a new Campylobacter species was proposed: Campylobacter cuniculorum (Chapter 1). Furthermore, there is a paucity of data regarding the occurrence of spiral shaped enteric flora in leporids. In order to define the prevalence both of this new species and other CLO in leporids (chapter 2), a total of 85 whole intestinal tracts of rabbits reared in 32 farms and 29 capture hares, epidemiologically not correlated, were collected just after evisceration at the slaughterhouse or during necroscopy. Examination and isolation methods were varied in order to increase the sensibility level of detection, and 100% of rabbit farms resulted positive for C. cuniculorum in high concentrations. Moreover, in 3.53% of the total rabbits examined, a Helicobacter species was detected. Nevertheless, all hares resulted negative both for Campylobacter or Helicobacter species. High prevalence of C. cuniculorum were found in rabbits, and in order to understand if this new species could play a pathological role, a study on some virulence determinants of C. cuniculorum was conducted (Chapter 3). Although this new species were able to adhere and invade, exert cytolethal distending toxin-like effects although at a low titre, a cdtB was not detected. There was no clear relationship between source of isolation or disease manifestation and possession of statistically significantly levels of particular virulence-associated factors although, cell adhesion and invasion occurred. Furthermore, antibiotic susceptibility was studied (chapter 4) in Campylobacter and in Escherichia coli strains, isolated from rabbits. It was possible to find acquired resistance of C. cuniculorum to enrofloxacin, ciprofloxacin and erytromycin. C. coli isolate was susceptible to all antimicrobial tested and moreover it is considered as a wild-type strain. Moreover, E. coli was found at low caecal concentration in rabbits and 30 phenotypes of antibiotic resistance were founded as well as the high rate of resistances to at least one antibiotic (98.1%). The majority of resistances were found from strains belonging to intensive farming system. In conclusion, in the course of the present study a new species isolated from rabbits was described, C. cuniculorum, and its high prevalence was established. Nevertheless, in hare samples no Campylobacter and Helicobacter species were detected. Some virulence determinants were further analyzed, however further studied are needed to understand the potential pathogenicity of this new species. On the other hand, antimicrobial susceptibility was monitored both in C. cuniculorum and indicator bacteria and acquired resistance was observed towards some antibiotics, indicating a possible role of rabbitries in the diffusion of antibiotic resistance. Further studies are necessary to describe and evaluate the eventual zoonotic role of Campylobacter cuniculorum.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In quest’ultimi decenni si è assistito ad un notevole miglioramento nella terapia delle Leucemie Acute (LA) pediatriche, nonostante tutto si assiste oggi ad una fase di plateau della curva di sopravvivenza e le leucemie continuano a costituire la principale causa di morte pediatrica per malattia. Ulteriori progressi nel trattamento delle LA potrebbero essere ottenuti mediante studi di farmacogenomica che, identificando le componenti genetiche associate alla risposta individuale ai trattamenti farmacologici, consentono il disegno di terapie personalizzate e tumore-specifiche, ad alta efficacia e bassa tossicità per ciascun paziente. Il lavoro svolto è stato, dunque, finalizzato allo studio della farmacogenomica del farmaco antitumorale Clofarabina (CLO) nel trattamento delle LA pediatriche al fine di identificare marcatori genetici predittivi di risposta delle cellule leucemiche al farmaco, delucidare i meccanismi di resistenza cellulare ed individuare nuovi bersagli verso cui indirizzare terapie più mirate ed efficaci. L’analisi in vitro della sensibilità alla CLO di blasti provenienti da pazienti pediatrici affetti da Leucemia Acuta Linfoblastica (LAL) e Mieloide (LAM) ha consentito l’identificazione di due sottopopolazioni di cellule LAL ad immunofenotipo T a diversa sensibilità alla CLO. Mediante DNA-microarrays, si è identificata la “signature” genetica specificamente associata alla diversa risposta delle cellule LAL-T al farmaco. Successivamente, la caratterizzazione funzionale dei geni differenziali e l’analisi dei pathways hanno consentito l’identificazione specifica di potenziali biomarcatori di risposta terapeutica aprendo nuove prospettive per la comprensione dei meccanismi di resistenza cellulare alla CLO e suggerendo un nuovo bersaglio terapeutico per le forme LAL-T a bassa sensibilità al farmaco. In conclusione, nel lavoro svolto si sono identificati set di geni e pathways di rilievo biologico per la risposta delle cellule LAL-T alla CLO suggerendo marcatori genetici in grado di identificare i soggetti eleggibili per il trattamento o verso cui disegnare terapie innovative. Il lavoro è paradigma per l’applicazione della farmacogenomica in altre neoplasie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca proposta si pone l’obiettivo di definire e sperimentare un metodo per un’articolata e sistematica lettura del territorio rurale, che, oltre ad ampliare la conoscenza del territorio, sia di supporto ai processi di pianificazione paesaggistici ed urbanistici e all’attuazione delle politiche agricole e di sviluppo rurale. Un’approfondita disamina dello stato dell’arte riguardante l’evoluzione del processo di urbanizzazione e le conseguenze dello stesso in Italia e in Europa, oltre che del quadro delle politiche territoriali locali nell’ambito del tema specifico dello spazio rurale e periurbano, hanno reso possibile, insieme a una dettagliata analisi delle principali metodologie di analisi territoriale presenti in letteratura, la determinazione del concept alla base della ricerca condotta. E’ stata sviluppata e testata una metodologia multicriteriale e multilivello per la lettura del territorio rurale sviluppata in ambiente GIS, che si avvale di algoritmi di clustering (quale l’algoritmo IsoCluster) e classificazione a massima verosimiglianza, focalizzando l’attenzione sugli spazi agricoli periurbani. Tale metodo si incentra sulla descrizione del territorio attraverso la lettura di diverse componenti dello stesso, quali quelle agro-ambientali e socio-economiche, ed opera una sintesi avvalendosi di una chiave interpretativa messa a punto allo scopo, l’Impronta Agroambientale (Agro-environmental Footprint - AEF), che si propone di quantificare il potenziale impatto degli spazi rurali sul sistema urbano. In particolare obiettivo di tale strumento è l’identificazione nel territorio extra-urbano di ambiti omogenei per caratteristiche attraverso una lettura del territorio a differenti scale (da quella territoriale a quella aziendale) al fine di giungere ad una sua classificazione e quindi alla definizione delle aree classificabili come “agricole periurbane”. La tesi propone la presentazione dell’architettura complessiva della metodologia e la descrizione dei livelli di analisi che la compongono oltre che la successiva sperimentazione e validazione della stessa attraverso un caso studio rappresentativo posto nella Pianura Padana (Italia).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nascita pretermine determina un’alterazione dei normali processi di maturazione dei vari organi ed apparati che durante la gravidanza fisiologica si completano durante le 38-40 settimane di vita intrauterina. Queste alterazioni sono alla base della mortalità e morbilità perinatale che condiziona la prognosi a breve termine di questa popolazione, ma possono determinare anche sequele a medio e lungo termine. E’ stato ampiamente documentato che la nefrogenesi si completa a 36 settimane di vita intrauterina e pertanto la nascita pretermine altera il decorso fisiologico di tale processo; a questa condizione di immaturità si sovrappongono i fattori patogeni che possono determinare danno renale acuto in epoca neonatale, a cui i pretermine sono in larga misura esposti. Queste condizioni conducono ad un rischio di alterazioni della funzione renale di entità variabile in età infantile ed adulta. Nel presente studio è stata studiata la funzione renale in 29 bambini di 2-4 anni di età, precedentemente sottoposti a valutazione della funzione renale alla nascita durante il ricovero in Terapia Intensiva Neonatale. I dati raccolti hanno mostrato la presenza di alterazioni maggiori (sindrome nefrosica, riduzione di eGFR) in un ridotto numero di soggetti e alterazioni minori ed isolate (proteinuria di lieve entità, riduzione del riassorbimento tubulare del fosforo, pressione arteriosa tra il 90° e il 99° percentile per sesso ed altezza). L’età di 2-4 anni, alla luce dei risultati ottenuti, può rappresentare un momento utile per effettuare una valutazione di screening di funzione renale in una popolazione a rischio come i pretermine, con lo scopo di individuare i soggetti che richiedano una presa in carico specialistica ed un follow-up a lungo termine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sulla base delle evidenze della letteratura (Fenaux, 2009; Lyons, JCO 2009), a partire da Settembre 2004 nel Nostro Istituto sono stati trattati 57 pazienti affetti da Sindrome Mielodisplastica (MDS) mediante terapia demetilante con 5-Azacitidina. Sono stati utilizzati differenti regimi terapeutici a seconda della classe di rischio IPSS: i pazienti a rischio basso/intermedio-1 hanno ricevuto Azacitidina 75 mg/mq/die sottocute per 5 giorni/mese (schema 5) per 8 cicli; i pazienti a rischio alto/intermedio-2 hanno ricevuto Azacitidina 50 mg/mq/die sottocute per 10 giorni/mese (schema 5+2+5) o Azacitidina 75 mg/mq/die per 7 giorni/mese (schema 7) fino a perdita della risposta. Su una casistica totale di 57 pazienti (15 a rischio basso/int-1; 41 rischio alto/int-2), l’87.7% (50 pazienti) sono risultati valutabili. Tra questi le risposte osservate sono state del 68% (34 pazienti), di cui il 14% (7 pazienti) ha ottenuto una Remissione Completa (CR) ed il 54% (27 pazienti) ha ottenuto un Hematologic Improvement (HI). La valutazione della risposta è stata eseguita secondo i criteri dell’International Working Group 2006 (IWG, Cheeson 2006). Le principali tossicità osservate sono state rappresentate da reazioni cutanee locali nel sito d’iniezione, tossicità gastrointestinale (stipsi e/o diarrea), mielotossicità, neutropenia febbrile, sepsi (3 pazienti). Tra i pazienti trattati abbiamo osservato la presenza di risposta ematologica prolungata (≥ 20 mesi) in 10 pazienti (20% dei pazienti valutabili). Inoltre, grazie alla collaborazione con il Dipartimento di Anatomia Umana dell’Università di Bologna (Prof. L. Cocco, Dott.ssa M.Y. Follo), tutti i pazienti trattati sono stati valutati per i livelli di espressione genica e metilazione del gene della fosfolipasi PI-PLC-beta1. I dati biologici così ottenuti sono stati correlati con quelli clinici, evidenziando la presenza di una correlazione tra i livelli di espressione genica e mutilazione della PI-PLC-beta1 e la risposta alla terapia demetilante con 5-Azacitidina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’applicazione della citogenetica convenzionale e molecolare può identificare: Ph-negatività, traslocazioni t(9;22) varianti e alterazioni citogenetiche addizionali (ACA) al cromsoma Ph in pazienti con LMC alla diagnosi. Prima dell’introduzione della terapia con Imatinib, esse mostravano un impatto prognostico negativo o non chiaro. Nel nostro studio, 6 casi di LMC Ph- erano trattati con Imatinib. La FISH identificava 4 casi con riarrangiamento BCR/ABL sul der(9q), 1 sul der(22q) e 1 su entrambi i derivativi. Quattro pazienti (66,7%) raggiungevano la RCgC, 2 fallivano il trattamento e 1 sottoposto a TMO. A causa dello scarso numero di casi, non era possibile nessuna correlazione con la prognosi. Nell’ambito di studi prospettici multicentrici del GIMEMA-WP, abbiamo valutato: traslocazioni varianti e ACA. Dei 559 pazienti arruolati, 30(5%) mostravano traslocazioni varianti, 24 valutabili in FISH: 18(75%) mostravano meccanismo 1-step, 4(16,7%) meccanismo 2-step e 2(8,3%) meccanismo complesso. Abbiamo confermato che le varianti non influenzano la risposta e la sopravvivenza dei pazienti trattati con Imatinib. Dei 378 pazienti valutabili alla diagnosi con citogenetica convenzionale, 21(5,6%) mostravano ACA: 9(43%) avevano la perdita del cromosoma Y, 3(14%) trisomia 8, 2(10%) trisomia 19, 6(28%) altre singole anomalie e 1 cariotipo complesso. La presenza di ACA influenzava la risposta: le RCgC e RMolM erano significativamente più basse rispetto al gruppo senza ACA e le curve di sopravvivenza EFS e FFS non erano significativamente diverse. Le curve di PFS e OS erano sovrapponibili nei due gruppi, per il basso numero di eventi avversi oppure perché alcuni raggiungevano la risposta con TKI di seconda generazione. Le anomalie “major route” mostravano decorso clinico peggiore, ma non è stato possibile determinare l’impatto prognostico in relazione al tipo di alterazione. Pertanto, le ACAs alla diagnosi rivestono un ruolo negativo nella prognosi dei pazienti trattati con Imatinib, che quindi rappresentano una categoria più a rischio per la risposta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione Attualmente i principali punti critici del trattamento dell’HCC avanzato sono: 1) la mancanza di predittori di risposta alla terapia con sorafenib, 2) lo sviluppo resistenze al sorafenib, 3) la mancanza di terapie di seconda linea codificate. Scopo della tesi 1) ricerca di predittori clinico-laboratoristici di risposta al sorafenib in pazienti ambulatoriali con HCC; 2) valutazione dell’impatto della sospensione temporanea-definitiva del sorafenib in un modello murino di HCC mediante tecniche ecografiche; 3) valutazione dell’efficacia della capecitabina metronomica come seconda linea dell’HCC non responsivo a sorafenib. Risultati Studio-1: 94 pazienti con HCC trattato con sorafenib: a presenza di metastasi e PVT-neoplastica non sembra inficiare l’efficacia del sorafenib. AFP basale <19 ng/ml è risultata predittrice di maggiore sopravvivenza, mentre lo sviluppo di nausea di una peggiore sopravvivenza. Studio -2: 14 topi con xenografts di HCC: gruppo-1 trattato con placebo, gruppo-2 trattato con sorafenib con interruzione temporanea del farmaco e gruppo-3 trattato con sorafenib con sospensione definitiva del sorafenib. La CEUS targettata per il VEGFR2 ha mostrato al giorno 13 valori maggiori di dTE nel gruppo-3 confermato da un aumento del VEGFR2 al Western-Blot. I tumori del gruppo-2 dopo 2 giorni di ritrattamento, hanno mostrato un aumento dell’elasticità tissutale all’elastonografia. Studio-3:19 pazienti trattati con capecitabina metronomica dopo sorafenib. Il TTP è stato di 5 mesi (95% CI 0-10), la PFS di 3,6 mesi (95% CI 2,8-4,3) ed la OS di 6,3 mesi (95% CI 4-8,6). Conclusioni Lo sviluppo di nausea ed astenia ed AFP basale >19, sono risultati predittivi di una minore risposta al sorafenib. La sospensione temporanea del sorafenib in un modello murino di HCC non impedisce il ripristino della risposta tumorale, mentre una interruzione definitiva tende a stimolare un “effetto rebound” dell’angiogenesi. La capecitabina metronomica dopo sorafenib ha mostrato una discreta attività anti-neoplastica ed una sicurezza accettabile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I prioni, privi di acidi nucleici, esistono come ceppi e possono mutare, in particolare quando attraversano una barriera di specie. Numerosi studi convergono sulla conclusione che le caratteristiche ceppo-specifiche siano inscritte nella conformazione della PrPSc, con la variabilità di ceppo associata a varianti conformazionali della PrPSc. In questo studio ci siamo avvalsi del PMCA, tecnica che riproduce in vitro molti aspetti della biologia dei prioni, per mettere a punto condizioni sperimentali di replicazione che permettessero di osservare fenomeni di mutazione e selezione, onde investigare i meccanismi molecolari e di popolazione alla base della mutabilità dei prioni. In condizioni di replicazione eterologa, che mima la trasmissione tra diverse specie, è stato inizialmente possibile identificare un mutante difettivo della scrapie, caratterizzato da una diversa conformazione della PrPSc e capace di replicare in vitro ma non più in vivo. Le condizioni in cui tale mutante è emerso hanno permesso di sviluppare ulteriori ipotesi di lavoro, basate sul concetto della quasi-specie. Impartendo diversi regimi di replicazione e seguendo l’evoluzione di due ceppi, è stato possibile evidenziare fenomeni di mutazione anche in condizioni di replicazione omologa, in assenza di forti pressioni selettive. In entrambi i ceppi sono emerse varianti conformazionali di PrPSc durante passaggi replicativi ad ampia popolazione, mentre le popolazioni sottoposte a ripetuti colli di bottiglia hanno mostrato un rapido declino del tasso di replicazione. Sono stati infine investigati l’efficacia e il potenziale mutageno di molecole anti-prioniche, ottenendo importanti risultati preliminari sull’efficacia di molecole che legano la PrPC. Questi risultati evidenziano come la mutabilità sia una caratteristica intrinseca dei prioni e supportano l’idea che i prioni siano molto variabili, similmente alle quasi-specie virali, e perciò adattabili e proni a fenomeni di mutazione e selezione. Tali conclusioni hanno impatto su problematiche sanitarie quali lo studio del potenziale zoonotico e i fenomeni di farmaco-resistenza dei prioni.