103 resultados para ellissoide inerzia equazioni Eulero moto Poinsot fenomeni giroscopici
Resumo:
La ricerca presentata è un’ampia esplorazione delle possibili applicazioni di concetti, metodi e procedure della Fuzzy Logic all’Ingegneria dei Materiali. Tale nuovo approccio è giustificato dalla inadeguatezza dei risultati conseguiti con i soli metodi tradizionali riguardo alla reologia ed alla durabilità, all’utilizzo di dati di laboratorio nella progettazione e alla necessità di usare un linguaggio (informatizzabile) che consenta una valutazione congiunta degli aspetti tecnici, culturali, economici, paesaggistici della progettazione. – In particolare, la Fuzzy Logic permette di affrontare in modo razionale l’aleatorietà delle variabili e dei dati che, nel settore specifico dei materiali in opera nel costruito dei Beni Culturali, non possono essere trattati con i metodi statistici ordinari. – La scelta di concentrare l’attenzione su materiali e strutture in opera in siti archeologici discende non solo dall’interesse culturale ed economico connesso ai sempre più numerosi interventi in questo nuovo settore di pertinenza dell’Ingegneria dei Materiali, ma anche dal fatto che, in tali contesti, i termini della rappresentatività dei campionamenti, della complessità delle interazioni tra le variabili (fisiche e non), del tempo e quindi della durabilità sono evidenti ed esasperati. – Nell’ambito di questa ricerca si è anche condotto un ampio lavoro sperimentale di laboratorio per l’acquisizione dei dati utilizzati nelle procedure di modellazione fuzzy (fuzzy modeling). In tali situazioni si è operato secondo protocolli sperimentali standard: acquisizione della composizione mineralogica tramite diffrazione di raggi X (XRD), definizione della tessitura microstrutturale con osservazioni microscopiche (OM, SEM) e porosimetria tramite intrusione forzata di mercurio (MIP), determinazioni fisiche quali la velocità di propagazione degli ultrasuoni e rotoviscosimetria, misure tecnologiche di resistenza meccanica a compressione uniassiale, lavorabilità, ecc. – Nell’elaborazione dei dati e nella modellazione in termini fuzzy, la ricerca è articolata su tre livelli: a. quello dei singoli fenomeni chimico-fisici, di natura complessa, che non hanno trovato, a tutt’oggi, una trattazione soddisfacente e di generale consenso; le applicazioni riguardano la reologia delle dispersioni ad alto tenore di solido in acqua (calci, cementi, malte, calcestruzzi SCC), la correlazione della resistenza a compressione, la gelività dei materiali porosi ed alcuni aspetti della durabilità del calcestruzzo armato; b. quello della modellazione della durabilità dei materiali alla scala del sito archeologico; le applicazioni presentate riguardano i centri di cultura nuragica di Su Monte-Sorradile, GennaMaria-Villanovaforru e Is Paras-Isili; c. quello della scelta strategica costituita dalla selezione del miglior progetto di conservazione considerando gli aspetti connessi all’Ingegneria dei Materiali congiuntamente a quelli culturali, paesaggistici ed economici; le applicazioni hanno riguardato due importanti monumenti (Anfiteatro e Terme a Mare) del sito Romano di Nora-Pula.
Il nucleotide extracellulare UTP: induzione della migrazione di cellule staminali emopoietiche CD34+
Resumo:
La letteratura scientifica degli ultimi anni si è arricchita di un numero sempre crescente di studi volti a chiarire i meccanismi che presiedono ai processi di homing di cellule staminali emopoietiche e del loro attecchimento a lungo termine nel midollo osseo. Tali fenomeni sembrano coinvolgere da un lato, l’interazione delle cellule staminali emopoietiche con la complessa architettura e componente cellulare midollare, e dall’altro la riposta ad un’ampia gamma di molecole regolatrici, tra le quali chemochine, citochine, molecole di adesione, enzimi proteolitici e mediatori non peptidici. Fanno parte di quest’ultimo gruppo anche i nucleotidi extracellulari, un gruppo di molecole-segnale recentemente caratterizzate come mediatori di numerose risposte biologiche, tra le quali l’allestimento di fenomeni flogistici e chemiotattici. Nel presente studio è stata investigata la capacità dei nucleotidi extracellulari ATP ed UTP di promuovere, in associazione alla chemochina CXCL12, la migrazione di cellule staminali umane CD34+. E’ così emerso che la stimolazione con UTP è in grado di incrementare significativamente la migrazione dei progenitori emopoietici in risposta al gradiente chemioattrattivo di CXCL12, nonché la loro capacità adesiva. Le analisi citofluorimetriche condotte su cellule migranti sembrano inoltre suggerire che l’UTP agisca interferendo con le dinamiche di internalizzazione del recettore CXCR4, rendendo così le cellule CD34+ maggiormente responsive, e per tempi più lunghi, al gradiente attrattivo del CXCL12. Saggi di homing competitivo in vivo hanno parallelamente mostrato, in topi NOD/SCID, che la stimolazione con UTP aumenta significativamente la capacità dei progenitori emopoeitci umani di localizzarsi a livello midollare. Sono state inoltre indagate alcune possibili vie di trasduzione del segnale attivate dalla stimolazione di recettori P2Y con UTP. Esperimenti di inibizione in presenza della tossina della Pertosse hanno evidenziato il coinvolgimento di proteine Gαi nella migrazione dipendente da CXCL12 ed UTP. Ulteriori indicazioni sono provenute dall’analisi del profilo trascrizionale di cellule staminali CD34+ stimolate con UTP, con CXCL12 o con entrambi i fattori contemporaneamente. Da questa analisi è emerso il ruolo di proteine della famiglia delle Rho GTPasi e di loro effettori a valle (ROCK 1 e ROCK 2) nel promuovere la migrazione UTP-dipendente. Questi dati sono stati confermati successivamente in vitro mediante esperimenti con Tossina B di C. Difficile (un inibitore delle Rho GTPasi) e con Y27632 (in grado di inibire specificatamente le cinasi ROCK). Nel complesso, i dati emersi in questo studio dimostrano la capacità del nucleotide extracellulare UTP di modulare la migrazione in vitro di progenitori emopoietici umani, nonché il loro homing midollare in vivo. L’effetto dell’UTP su questi fenomeni si esplica in concerto con la chemochina CXCL12, attraverso l’attivazione concertata di vie di trasduzione del segnale almeno parzialmente condivise da CXCR4 e recettori P2Y e attraverso il reclutamento comune di proteine ad attività GTPasica, tra le quali le proteine Gαi e i membri della famiglia delle Rho GTPasi.
Resumo:
La sedimentazione clastica di mare profondo è attualmente uno dei principali argomenti della ricerca sedimentologica sia in ambito puramente accademico che in ambito petrolifero-industriale. Gli studi recenti hanno enfatizzato l'influenza fondamentale della topografia preesistente del fondo marino sulla crescita e la morfologia sui fan di mare profondo; si è visto come, in molti systemi torbiditici, l’evoluzione dei processi deposizionali sia stata da moderatamente a fortemente controllata dall’ effetto di confinamento di scarpate tettoniche, ridge strutturali e seamounts. Scopo di questo lavoro è studiare l'effetto del confinamento alla scala di bacino sui principali sistemi torbiditici del margine orientale della Sardegna che rappresenta un margine passivo articolato di bacini di intraslope confinati verso mare da seamounts. Lo studio dei sistemi deposizionali è stato eseguito attraverso l'interpretazione di dati di batimetria multibeam ad alto dettaglio acquisiti dall’ISMAR di Bologna durante la crociera Tir99. L’ interpretazione multibeam è stata integrata con l’ analisi di profili sismici a riflessione per comprendere la morfologia l’organizzazione interna e l’evoluzione nel tempo dei principali elementi deposizionali dei sistemi torbiditici. Tre bacini di intraslope (Olbia, Baronie e il settore settentrionale del bacino Ogliastra) sono stati investigati. Il bacino di Olbia è il bacino più settentrionale del margine orientale della Sardegna ed è limitato verso mare dai seamount Etruschi e Baronie. Il principale sistema torbiditico del bacino di Olbia è costituito dal Caprera, articolato in un sistema di canyon alimentatori nella piattaforma e nella scarpata continentale e da un ampio canale con argini alla base della scarpata. Il Caprera è fiancheggiato da un ampia piattaforma continentale, e questa, fungendo da “magazzino” per il materiale piu grossolando, può spiegare la peculiare architettura sedimentaria del suo fan. L'effetto di confinamento del bacino sulla forma e sull'evoluzione del fan del Caprera è evidente soprattutto sull'asimmetria dei leve e su fenomeni di avulsione che hanno coinvolto il canale. Il bacino di intraslope di Olbia appare completamente riempito, e, nel bordo orientale, è presente il canyon di intrabacino verso il bacino sottostante. Gli effetti dell'abbassamento del livello di base sono visibili nel settore distale del sistema, dove si ha lo sviluppo di canali distributari e di valli erosive a basso rilievo, che rappresentano le porzioni "upslope" dei canyon di "bypass". Il bacino di intraslope del Baronie è il bacino centrale del margine, confinato verso mare dal seamount delle Baronie, e presenta una via di fuga laterale rappresentato dal sistema di canyon di Gonone-Orosei. Il Posada è il sistema torbiditico principale, consiste di un canyon profondamente inciso nella piattaforma e nella scarpata, e sviluppa alla base della scarpata un piccolo fa radiale. La morfologia del è il risultato dell'interazione complessa tra la geoemtria del bacino ricevente ed il comportamento dei flussi sedimentari. La forma del bacino ha costretto il sistema torbiditico a cambiare la direzione di sviluppo, da est verso sud. Processi di framanento in massa a grande scala hanno inoltre contribuito alla riorganizzazione del sistema torbiditico. Il bacino dell’Ogliastra è localizzato nel settore meridionale del margine, limitato verso mare dal seamount Quirra. Il settore settentrionale della scarpata continentale del bacino Ogliastra è caratterizzato da canyon e incisioni di carattere ibrido, con tratti deposizionali ed erosivi. L'Arbatax è il principale sistema torbiditico del bacino di Ogliastra caratterizzato da un settore meridionale dominato da un canale alimentatore e da un settore settentrionale abbandonato, caratterizzato da fenomeni di smantellamento e instabilità gravitativa. In generale i risultati dello studio evidenziano l'importanza della combinazione dei fattori di controllo esterni, e della topografia preesistente, nello sviluppo dei processi sedimentari e degli elementi deposizionali dei sistemi torbiditici. In particolare, appare evidente come lo stile deposizionale dei sistemi torbiditici in ambiente confinato diverga sostanzialmente da quello previsto dai modelli di fan sottomarini usati come strumenti predittivi nella esplorazione e sfruttamento dei giacimenti di idrocarburi.
Resumo:
La presente tesi di dottorato si propone lo sviluppo di un modello spazialmente distribuito per produrre una stima dell'erosione superficiale in bacini appenninici. Il modello è stato progettato per simulare in maniera fisicamente basata il distacco di suolo e di sedimento depositato ad opera delle precipitazioni e del deflusso superficiale, e si propone come utile strumento per lo studio della vulnerabilità del territorio collinare e montano. Si è scelto un bacino collinare dell'Appennino bolognese per testare le capacità del modello e verificarne la robustezza. Dopo una breve introduzione per esporre il contesto in cui si opera, nel primo capitolo sono presentate le principali forme di erosione e una loro descrizione fisico-matematica, nel secondo capitolo verranno introdotti i principali prodotti della modellistica di erosione del suolo, spiegando quale interpretazione dei fenomeni fisici è stata data. Nel terzo capitolo verrà descritto il modello oggetto della tesi di dottorando, con una prima breve descrizione della componente afflussi-deflussi ed una seconda descrizione della componente di erosione del suolo. Nel quarto capitolo verrà descritto il bacino di applicazione del modello, i risultati della calibrazione ed un'analisi di sensitività. Infine si presenteranno le conclusioni sullo studio.
Resumo:
La ricerca ha perseguito l’obiettivo di individuare e definire il potere di un ente territoriale di sostituire, tramite i suoi organi o atti, quelli ordinari degli enti territoriali minori, per assumere ed esercitare compiutamente, in situazioni straordinarie, le funzioni proprie di questi. Dogmaticamente potremmo distinguere due generali categorie di sostituzione: quella amministrativa e quella legislativa, a seconda dell’attività giuridica nella quale il sostituto interviene. Nonostante tale distinzione riguardi in generale il rapporto tra organi o enti della stessa o di differenti amministrazioni, con eguale o diverso grado di autonomia; la ricerca ha mirato ad analizzare le due summenzionate categorie con stretto riferimento agli enti territoriali. I presupposti, l’oggetto e le modalità di esercizio avrebbero consentito ovviamente di sottocatalogare le due generali categorie di sostituzione, ma un’indagine volta a individuare e classificare ogni fattispecie di attività sostitutiva, più che un’attività complessa, è sembrata risultare di scarsa utilità. Più proficuo è parso il tentativo di ricostruire la storia e l’evoluzione del menzionato istituto, al fine di definire e comprendere i meccanismi che consentono l’attività sostitutiva. Nel corso della ricostruzione non si è potuto trascurare che, all’interno dell’ordinamento italiano, l’istituto della sostituzione è nato nel diritto amministrativo tra le fattispecie che regolavano l’esercizio della funzione amministrativa indiretta. La dottrina del tempo collocava la potestà sostitutiva nella generale categoria dei controlli. La sostituzione, infatti, non avrebbe avuto quel valore creativo e propulsivo, nel mondo dell’effettualità giuridica, quell’energia dinamica ed innovatrice delle potestà attive. La sostituzione rappresentava non solo la conseguenza, ma anche la continuazione del controllo. Le fattispecie, che la menzionata dottrina analizzava, rientravano principalmente all’interno di due categorie di sostituzione: quella disposta a favore dello Stato contro gli inadempimenti degli enti autarchici – principalmente il comune – nonché la sostituzione operata all’interno dell’organizzazione amministrativa dal superiore gerarchico nei confronti del subordinato. Già in epoca unitaria era possibile rinvenire poteri sostitutivi tra enti, la prima vera fattispecie di potestà sostitutiva, era presente nella disciplina disposta da diverse fattispecie dell'allegato A della legge 20 marzo 1856 n. 2248, sull'unificazione amministrativa del Regno. Tentativo del candidato è stato quello, quindi, di ricostruire l'evoluzione delle fattispecie sostitutive nella stratificazione normativa che seguì con il T.U. della legge Comunale e Provinciale R.D. 4 febbraio 1915 e le successive variazioni tra cui il R.D.L. 30 dicembre 1923. Gli istituti sostitutivi vennero meno (di fatto) con il consolidarsi del regime fascista. Il fascismo, che in un primo momento aveva agitato la bandiera delle autonomie locali, non tardò, come noto, una volta giunto al potere, a seguire la sua vera vocazione, dichiarandosi ostile a ogni proposito di decentramento e rafforzando, con la moltiplicazione dei controlli e la soppressione del principio elettivo, la già stretta dipendenza delle comunità locali dallo Stato. Vennero meno i consigli liberamente eletti e al loro posto furono insediati nel 1926 i Podestà e i Consultori per le Amministrazioni comunali; nel 1928 i Presidi e i Rettorati per le Amministrazioni Provinciali, tutti organi nominati direttamente o indirettamente dall’Amministrazione centrale. In uno scenario di questo tipo i termini autarchia e autonomia risultano palesemente dissonanti e gli istituti di coordinamento tra Stato ed enti locali furono ad esso adeguati; in tale ordinamento, infatti, la sostituzione (pur essendo ancora presenti istituti disciplinanti fattispecie surrogatorie) si presentò come un semplice rapporto interno tra organi diversi, di uno stesso unico potere e non come esso è in realtà, anello di collegamento tra soggetti differenti con fini comuni (Stato - Enti autarchici); per semplificare, potremmo chiederci, in un sistema totalitario come quello fascista, in cui tutti gli interessi sono affidati all’amministrazione centrale, chi dovrebbe essere il sostituito. Il potere sostitutivo (in senso proprio) ebbe una riviviscenza nella normativa post-bellica, come reazione alla triste parentesi aperta dal fascismo, che mise a nudo i mali e gli abusi dell’accentramento statale. La suddetta normativa iniziò una riforma in favore delle autonomie locali; infatti, come noto, tutti i partiti politici assunsero posizione in favore di una maggiore autonomia degli enti territoriali minori e ripresero le proposte dei primi anni dell’Unità di Italia avanzate dal Minghetti, il quale sentiva l’esigenza dell’istituzione di un ente intermedio tra Stato e Province, a cui affidare interessi territorialmente limitati: la Regione appunto. Emerge piuttosto chiaramente dalla ricerca che la storia politica e l’evoluzione del diritto pubblico documentano come ad una sempre minore autonomia locale nelle politiche accentratrici dello Stato unitario prima, e totalitario poi, corrisponda una proporzionale diminuzione di istituti di raccordo come i poteri sostitutivi; al contrario ad una sempre maggiore ed evoluta autonomia dello Stato regionalista della Costituzione del 1948 prima, e della riforma del titolo V oggi, una contestuale evoluzione e diffusione di potestà sostitutive. Pare insomma che le relazioni stato-regioni, regioni-enti locali che la sostituzione presuppone, sembrano rappresentare (ieri come oggi) uno dei modi migliori per comprendere il sistema delle autonomie nell’evoluzione della stato regionale e soprattutto dopo la riforma apportata dalla legge costituzionale 18 ottobre 2001, n. 3. Dalla preliminare indagine storica un altro dato, che pare emergere, sembra essere la constatazione che l'istituto nato e giustificato da esigenze di coerenza e efficienza dell'azione amministrativa sia stato trasferito nell'ambio delle relazioni tra stato e autonomie territoriali. Tale considerazione sembra essere confermata dal proseguo dell’indagine, ed in particolare dai punti di contatto tra presupposti e procedure di sostituzione nell’analisi dell’istituto. Nonostante, infatti, il Costituente non disciplinò poteri sostitutivi dello Stato o delle regioni, al momento di trasferire le competenze amministrative alle regioni la Corte costituzionale rilevò il problema della mancanza di istituti posti a garantire gli interessi pubblici, volti ad ovviare alle eventuali inerzie del nuovo ente territoriale. La presente ricerca ha voluto infatti ricostruire l’ingresso dei poteri sostitutivi nel ordinamento costituzionale, riportando le sentenze del Giudice delle leggi, che a partire dalla sentenza n. 142 del 1972 e dalla connessa pronuncia n. 39 del 1971 sui poteri di indirizzo e coordinamento dello Stato, pur non senza incertezze e difficoltà, ha finito per stabilire un vero e proprio “statuto” della sostituzione con la sentenza n. 177 del 1988, individuando requisiti sostanziali e procedurali, stimolando prima e correggendo successivamente gli interventi del legislatore. Le prime fattispecie sostitutive furono disciplinate con riferimento al rispetto degli obblighi comunitari, ed in particolare con l’art. 27 della legge 9 maggio 1975, n. 153, la quale disciplina, per il rispetto dell’autonomia regionale, venne legittimata dalla stessa Corte nella sentenza n. 182 del 1976. Sempre con riferimento al rispetto degli obblighi comunitari intervenne l’art. 6 c. 3°, D.P.R. 24 luglio 1977, n. 616. La stessa norma va segnalata per introdurre (all’art. 4 c. 3°) una disciplina generale di sostituzione in caso di inadempimento regionale nelle materie delegate dallo Stato. Per il particolare interesse si deve segnalare il D.M. 21 settembre 1984, sostanzialmente recepito dal D.L. 27 giugno 1985, n. 312 (disposizioni urgenti per la tutela delle zone di particolare interesse ambientale), poi convertito in legge 8 agosto 1985, n. 431 c.d. legge Galasso. Tali disposizioni riaccesero il contenzioso sul potere sostitutivo innanzi la Corte Costituzionale, risolto nelle sentt. n. 151 e 153 del 1986. Tali esempi sembrano dimostrare quello che potremmo definire un dialogo tra legislatore e giudice della costituzionalità nella definizione dei poteri sostitutivi; il quale culminò nella già ricordata sent. n. 177 del 1988, nella quale la Corte rilevò che una legge per prevedere un potere sostitutivo costituzionalmente legittimo deve: essere esercitato da parte di un organo di governo; nei confronti di attività prive di discrezionalità nell’an e presentare idonee garanzie procedimentali in conformità al principio di leale collaborazione. Il modello definito dalla Corte costituzionale sembra poi essere stato recepito definitivamente dalla legge 15 marzo 1997, n. 59, la quale per prima ha connesso la potestà sostitutiva con il principio di sussidiarietà. Detta legge sembra rappresentare un punto di svolta nell’indagine condotta perché consente di interpretare al meglio la funzione – che già antecedentemente emergeva dallo studio dei rapporti tra enti territoriali – dei poteri sostitutivi quale attuazione del principio di sussidiarietà. La legge costituzionale 18 ottobre 2001, n. 3, ha disciplinato all’interno della Costituzione ben due fattispecie di poteri sostitutivi all’art. 117 comma 5 e all’art. 120 comma 2. La “lacuna” del 1948 necessitava di essere sanata – in tal senso erano andati anche i precedenti tentativi di riforma costituzionale, basti ricordare l’art. 58 del progetto di revisione costituzionale presentato dalla commissione D’Alema il 4 novembre 1997 – i disposti introdotti dal riformatore costituzionale, però, non possono certo essere apprezzati per la loro chiarezza e completezza. Le due richiamate disposizioni costituzionali, infatti, hanno prodotto numerose letture. Il dibattito ha riguardato principalmente la natura delle due fattispecie sostitutive. In particolare, si è discusso sulla natura legislativa o amministrativa delle potestà surrogatorie e sulla possibilità da parte del legislatore di introdurre o meno la disciplina di ulteriori fattispecie sostitutive rispetto a quelle previste dalla Costituzione. Con particolare riferimento all’art. 120 c. 2 Cost. sembra semplice capire che le difficoltà definitorie siano state dovute all’indeterminatezza della fattispecie, la quale attribuisce al Governo il potere sostitutivo nei confronti degli organi (tutti) delle regioni, province, comuni e città metropolitane. In particolare, la dottrina, che ha attribuito all’art. 120 capoverso la disciplina di un potere sostitutivo sulle potestà legislative delle Regioni, è partita dalla premessa secondo la quale detta norma ha una funzione fondamentale di limite e controllo statale sulle Regioni. La legge 18 ottobre 2001 n. 3 ha, infatti, variato sensibilmente il sistema dei controlli sulle leggi regionali, con la modificazione degli artt. 117 e 127 della Costituzione; pertanto, il sistema dei controlli dopo la riforma del 2001, troverebbe nel potere sostitutivo ex art. 120 la norma di chiusura. Sul tema è insistito un ampio dibattito, al di là di quello che il riformatore costituzionale avrebbe dovuto prevedere, un’obiezione (più delle altre) pare spingere verso l’accoglimento della tesi che propende per la natura amministrativa della fattispecie in oggetto, ovvero la constatazione che il Governo è il soggetto competente, ex art. 120 capoverso Cost., alla sostituzione; quindi, se si intendesse la sostituzione come avente natura legislativa, si dovrebbe ritenere che il Costituente abbia consentito all’Esecutivo, tosto che al Parlamento, l’adozione di leggi statali in sostituzione di quelle regionali. Suddetta conseguenza sembrerebbe comportare una palese violazione dell’assetto costituzionale vigente. Le difficoltà interpretative dell’art. 120 Cost. si sono riversate sulla normativa di attuazione della riforma costituzionale, legge 5 giugno 2003, n. 131. In particolare nell’art. 8, il quale ha mantenuto un dettato estremamente vago e non ha preso una chiara e netta opzione a favore di una della due interpretazione riportate circa la natura della fattispecie attuata, richiamando genericamente che il potere sostitutivo si adotta “Nei casi e per le finalità previsti dall'articolo 120” Cost. Di particolare interesse pare essere, invece, il procedimento disciplinato dal menzionato art. 8, il quale ha riportato una procedura volta ad attuare quelle che sono state le indicazioni della Corte in materia. Analogamente agli anni settanta ed ottanta, le riportate difficoltà interpretative dell’art. 120 Cost. e, più in generale il tema dei poteri sostitutivi dopo la riforma del 2001, sono state risolte e definite dal giudice della costituzionalità. In particolare, la Corte sembra aver palesemente accolto (sent. n. 43 del 2004) la tesi sulla natura amministrativa del potere sostitutivo previsto dall’art. 120 c. 2 Cost. Il giudice delle leggi ha tra l’altro fugato i dubbi di chi, all’indomani della riforma costituzionale del 2001, aveva letto nel potere sostitutivo, attribuito dalla riformata Costituzione al Governo, l’illegittimità di tutte quelle previsioni legislative regionali, che disponevano ipotesi di surrogazione (da parte della regione) nei confronti degli enti locali. La Corte costituzionale, infatti, nella già citata sentenza ha definito “straordinario” il potere di surrogazione attribuito dall’art. 120 Cost. allo Stato, considerando “ordinare” tutte quelle fattispecie sostitutive previste dalla legge (statale e regionale). Particolarmente innovativa è la parte dell'indagine in cui la ricerca ha verificato in concreto la prassi di esercizio della sostituzione statale, da cui sono sembrate emergere numerose tendenze. In primo luogo significativo sembra essere il numero esiguo di sostituzioni amministrative statali nei confronti delle amministrazioni regionali; tale dato sembra dimostrare ed essere causa della scarsa “forza” degli esecutivi che avrebbero dovuto esercitare la sostituzione. Tale conclusione sembra trovare conferma nell'ulteriore dato che sembra emergere ovvero i casi in cui sono stati esercitati i poteri sostitutivi sono avvenuti tutti in materie omogenee (per lo più in materia di tutela ambientale) che rappresentano settori in cui vi sono rilevanti interessi pubblici di particolare risonanza nell'opinione pubblica. Con riferimento alla procedura va enfatizzato il rispetto da parte dell'amministrazione sostituente delle procedure e dei limiti fissati tanto dal legislatore quanto nella giurisprudenza costituzionale al fine di rispettare l'autonomia dell'ente sostituito. Dalla ricerca emerge che non è stato mai esercitato un potere sostitutivo direttamente ex art. 120 Cost., nonostante sia nella quattordicesima (Governo Berlusconi) che nella quindicesima legislatura (Governo Prodi) con decreto sia stata espressamente conferita al Ministro per gli affari regionali la competenza a promuovere l’“esercizio coordinato e coerente dei poteri e rimedi previsti in caso di inerzia o di inadempienza, anche ai fini dell'esercizio del potere sostitutivo del Governo di cui all'art. 120 della Costituzione”. Tale conclusione, però, non lascia perplessi, bensì, piuttosto, sembra rappresentare la conferma della “straordinarietà” della fattispecie sostitutiva costituzionalizzata. Infatti, in via “ordinaria” lo Stato prevede sostituzioni per mezzo di specifiche disposizioni di legge o addirittura per mezzo di decreti legge, come di recente il D.L. 09 ottobre 2006, n. 263 (Misure straordinarie per fronteggiare l'emergenza nel settore dei rifiuti nella regione Campania. Misure per la raccolta differenziata), che ha assegnato al Capo del Dipartimento della protezione civile della Presidenza del Consiglio dei Ministri “le funzioni di Commissario delegato per l'emergenza nel settore dei rifiuti nella regione Campania per il periodo necessario al superamento di tale emergenza e comunque non oltre il 31 dicembre 2007”. Spesso l’aspetto interessante che sembra emergere da tali sostituzioni, disposte per mezzo della decretazione d’urgenza, è rappresentato dalla mancata previsione di diffide o procedure di dialogo, perché giustificate da casi di estrema urgenza, che spesso spingono la regione stessa a richiedere l’intervento di surrogazione. Del resto è stata la stessa Corte costituzionale a legittimare, nei casi di particolare urgenza e necessità, sostituzioni prive di dialogo e strumenti di diffida nella sent. n. 304 del 1987. Particolare attenzione è stata data allo studio dei poteri sostitutivi regionali. Non solo perché meno approfonditi in letteratura, ma per l’ulteriore ragione che tali fattispecie, disciplinate da leggi regionali, descrivono i modelli più diversi e spingono ad analisi di carattere generale in ordine alla struttura ed alla funzione dei poteri sostitutivi. Esse sembrano rappresentare (in molti casi) modelli da seguire dallo stesso legislatore statale, si vedano ad esempio leggi come quella della regione Toscana 31 ottobre 2001, n. 53, artt. 2, 3, 4, 5, 7; legge regione Emilia-Romagna 24 marzo 2004, n. 6, art. 30, le quali recepiscono i principi sviluppati dalla giurisprudenza costituzionale e scandiscono un puntuale procedimento ispirato alla collaborazione ed alla tutela delle attribuzioni degli enti locali. La ricerca di casi di esercizio di poter sostitutivi è stata effettuata anche con riferimento ai poteri sostitutivi regionali. I casi rilevati sono stati numerosi in particolare nella regione Sicilia, ma si segnalano anche casi nelle regioni Basilicata ed Emilia-Romagna. Il dato principale, che sembra emergere, pare essere che alle eterogenee discipline di sostituzione corrispondano eterogenee prassi di esercizio della sostituzione. Infatti, alle puntuali fattispecie di disciplina dei poteri sostitutivi dell’Emilia-Romagna corrispondono prassi volte ad effettuare la sostituzione con un delibera della giunta (organo di governo) motivata, nel rispetto di un ampio termine di diffida, nonché nella ricerca di intese volte ad evitare la sostituzione. Alla generale previsione della regione Sicilia, pare corrispondere un prassi sostitutiva caratterizzata da un provvedimento del dirigente generale all’assessorato per gli enti locali (organo di governo?), per nulla motivato, salvo il richiamo generico alle norme di legge, nonché brevi termini di diffida, che sembrano trovare la loro giustificazione in note o solleciti informati che avvisano l’ente locale della possibile sostituzione. In generale il fatto che in molti casi i poteri sostitutivi siano stimolati per mezzo dell’iniziativa dei privati, sembra dimostrare l’attitudine di tal istituto alla tutela degli interessi dei singoli. I differenti livelli nei quali operano i poteri sostitutivi, il ruolo che la Corte ha assegnato a tali strumenti nell’evoluzione della giurisprudenza costituzionale, nonché i dati emersi dall’indagine dei casi concreti, spingono ad individuare nel potere sostitutivo uno dei principali strumenti di attuazione del principio di sussidiarietà, principio quest’ultimo che sembra rappresentare – assieme ai corollari di proporzionalità, adeguatezza e leale collaborazione – la chiave di lettura della potestà sostitutiva di funzioni amministrative. In tal senso, come detto, pare emergere dall’analisi di casi concreti come il principio di sussidiarietà per mezzo dei poteri sostitutivi concretizzi quel fine, a cui l’art. 118 cost. sembra mirare, di tutela degli interessi pubblici, consentendo all’ente sovraordinato di intervenire laddove l’ente più vicino ai cittadini non riesca. Il principio di sussidiarietà sembra essere la chiave di lettura anche dell’altra categoria della sostituzione legislativa statale. L’impossibilità di trascurare o eliminare l’interesse nazionale, all’interno di un ordinamento regionale fondato sull’art. 5 Cost., sembra aver spino la Corte costituzionale ad individuare una sorta di “potere sostitutivo legislativo”, attraverso il (seppur criticabile) meccanismo introdotto per mezzo della sent. 303 del 2003 e della cosiddetta “chiamata i sussidiarietà”. Del resto adattare i principi enucleati nella giurisprudenza costituzionale a partire dalla sent. n. 117 del 1988 alla chiamata in sussidiarietà e i limiti che dal principio di leale collaborazione derivano, sembra rappresentare un dei modi (a costituzione invariata) per limitare quello che potrebbe rappresentare un meccanismo di rilettura dell’art. 117 Cost. ed ingerenza dello stato nelle competenze della regioni. Nonostante le sensibili differenze non si può negare che lo strumento ideato dalla Corte abbia assunto le vesti della konkurrierende gesetzgebung e, quindi, di fatto, di un meccanismo che senza limiti e procedure potrebbe rappresentare uno strumento di interferenza e sostituzione della stato nelle competenze regionali. Tali limiti e procedure potrebbero essere rinvenuti come detto nelle procedure di sostituzione scandite nelle pronunce del giudice delle leggi. I risultati che si spera emergeranno dalla descritta riflessione intorno ai poteri sostitutivi e il conseguente risultato circa lo stato del regionalismo italiano, non sembrano, però, rappresentare un punto di arrivo, bensì solo di partenza. I poteri sostitutivi potrebbero infatti essere oggetto di futuri interventi di riforma costituzionale, così come lo sono stati in occasione del tentativo di riforma del 2005. Il legislatore costituzionale nel testo di legge costituzionale approvato in seconda votazione a maggioranza assoluta (recante “Modifiche alla Parte II della Costituzione” e pubblicato in gazzetta ufficiale n. 269 del 18-11-2005) pareva aver fatto un scelta chiara sostituendo il disposto “Il Governo può sostituirsi a organi delle Regioni, delle città metropolitane, delle Province e dei Comuni” con “Lo Stato può sostituirsi alle Regioni, alle città metropolitane, alle Province e ai Comuni nell'esercizio delle funzioni loro attribuite dagli articoli 117 e 118”. Insomma si sarebbe introdotto quello strumento che in altri Paesi prende il nome di Supremacy clause o Konkurrierende Gesetzgebung, ma quali sarebbero state le procedure e limiti che lo Stato avrebbe dovuto rispettare? Il dettato che rigidamente fissa le competenze di stato e regioni, assieme alla reintroduzione espressa dell’interesse nazionale, non avrebbe ridotto eccessivamente l’autonomia regionale? Tali interrogativi mirano a riflettere non tanto intorno a quelli che potrebbero essere gli sviluppi dell’istituto dei poteri sostitutivi. Piuttosto essi sembrano rappresenterebbe l’ulteriore punto di vista per tentare di comprendere quale percorso avrebbe potuto (o potrebbe domani) prendere il regionalismo italiano.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Resumo:
Il tema della casa, e più in generale dell’abitare, è argomento tornato al centro del dibattito sociale più di quanto non sia avvenuto in campo tecnico‐architettonico. Sono infatti abbastanza evidenti i limiti delle proposte che nel recente passato sono state, di norma, elaborate nelle nostre città, proposte molto spesso incapaci di tener conto delle molteplici dimensioni che l’evoluzione dei costumi e della struttura urbana e sociale ha indotto anche nella sfera della residenza e che sono legate a mutate condizioni lavorative, alla diversità di cultura e di religione di nuovi gruppi etnici insediati, alla struttura dei nuclei familiari (ove ancora esistano) ed a molti altri fattori; cambiate le esigenze, un tempo composte nella struttura della famiglia, sono cambiati desideri e richieste mentre l’apparato normativo è rimasto strutturato su modelli sociali ed economici superati. Il tema dunque assume, oggi più che mai, connotazioni con forti relazioni fra problematiche funzionali, tecnologiche e simboliche. Stimolata da queste osservazioni generali, la ricerca si è mossa partendo da un’analisi di casi realizzati nel periodo storico in cui si è esaurita, in Italia, l’emergenza abitativa post‐bellica, nell’intento di riconsiderare l’approccio vitale che era stato messo in campo in quella drammatica circostanza, ma già consapevole che lo sviluppo che avrebbe poi avuto sarebbe stato molto più circoscritto. La tesi infatti, dopo aver osservato rapidamente la consistenza tipologica ed architettonica di quegli interventi, per trarne suggestioni capaci di suggerire un credibile e nuovo prototipo da indagare, attraverso un’analisi comparativa sugli strumenti oggi disponibili per la comunicazione e gestione del progetto, si è soffermata sulla potenzialità delle nuove tecnologie dell'informazione (IT). Non si può infatti non osservare che esse hanno modificato non solo il modo di vivere, di lavorare, di produrre documenti e di scambiare informazioni, ma anche quello di controllare il processo di progetto. Il fenomeno è tuttora in corso ma è del tutto evidente che anche l'attività progettuale, seppure in un settore quale è quello dell'industria edilizia, caratterizzato da una notevole inerzia al cambiamento e restio all'innovazione, grazie alle nuove tecnologie ha conosciuto profonde trasformazioni (già iniziate con l’avvento del CAD) che hanno accelerato il progressivo mutamento delle procedure di rappresentazione e documentazione digitale del progetto. Su questo tema quindi si è concentrata la ricerca e la sperimentazione, valutando che l'”archivio di progetto integrato”, (ovvero IPDB ‐ Integrated Project Database) è, probabilmente, destinato a sostituire il concetto di CAD (utilizzato fino ad ora per il settore edilizio ed inteso quale strumento di elaborazione digitale, principalmente grafica ma non solo). Si è esplorata quindi, in una prima esperienza di progetto, la potenzialità e le caratteristiche del BIM (Building Information Model) per verificare se esso si dimostra realmente capace di formulare un archivio informativo, di sostegno al progetto per tutto il ciclo di vita del fabbricato, ed in grado di definirne il modello tridimensionale virtuale a partire dai suoi componenti ed a collezionare informazioni delle geometrie, delle caratteristiche fisiche dei materiali, della stima dei costi di costruzione, delle valutazioni sulle performance di materiali e componenti, delle scadenze manutentive, delle informazioni relative a contratti e procedure di appalto. La ricerca analizza la strutturazione del progetto di un edificio residenziale e presenta una costruzione teorica di modello finalizzata alla comunicazione e gestione della pianificazione, aperta a tutti i soggetti coinvolti nel processo edilizio e basata sulle potenzialità dell’approccio parametrico.
Resumo:
La ricerca oggetto di questa tesi, come si evince dal titolo stesso, è volta alla riduzione dei consumi per vetture a forte carattere sportivo ed elevate prestazioni specifiche. In particolare, tutte le attività descritte fanno riferimento ad un ben definito modello di vettura, ovvero la Maserati Quattroporte. Lo scenario all’interno del quale questo lavoro si inquadra, è quello di una forte spinta alla riduzione dei cosiddetti gas serra, ossia dell’anidride carbonica, in linea con quelle che sono le disposizioni dettate dal protocollo di Kyoto. La necessità di ridurre l’immissione in atmosfera di CO2 sta condizionando tutti i settori della società: dal riscaldamento degli edifici privati a quello degli stabilimenti industriali, dalla generazione di energia ai processi produttivi in senso lato. Nell’ambito di questo panorama, chiaramente, sono chiamati ad uno sforzo considerevole i costruttori di automobili, alle quali è imputata una percentuale considerevole dell’anidride carbonica prodotta ogni giorno e riversata nell’atmosfera. Al delicato problema inquinamento ne va aggiunto uno forse ancor più contingente e diretto, legato a ragioni di carattere economico. I combustibili fossili, come tutti sanno, sono una fonte di energia non rinnovabile, la cui disponibilità è legata a giacimenti situati in opportune zone del pianeta e non inesauribili. Per di più, la situazione socio politica che il medio oriente sta affrontando, unita alla crescente domanda da parte di quei paesi in cui il processo di industrializzazione è partito da poco a ritmi vertiginosi, hanno letteralmente fatto lievitare il prezzo del petrolio. A causa di ciò, avere una vettura efficiente in senso lato e, quindi, a ridotti consumi, è a tutti gli effetti un contenuto di prodotto apprezzato dal punto di vista del marketing, anche per i segmenti vettura più alti. Nell’ambito di questa ricerca il problema dei consumi è stato affrontato come una conseguenza del comportamento globale della vettura in termini di efficienza, valutando il miglior compromesso fra le diverse aree funzionali costituenti il veicolo. Una parte consistente del lavoro è stata dedicata alla messa a punto di un modello di calcolo, attraverso il quale eseguire una serie di analisi di sensibilità sull’influenza dei diversi parametri vettura sul consumo complessivo di carburante. Sulla base di tali indicazioni, è stata proposta una modifica dei rapporti del cambio elettro-attuato con lo scopo di ottimizzare il compromesso tra consumi e prestazioni, senza inficiare considerevolmente queste ultime. La soluzione proposta è stata effettivamente realizzata e provata su vettura, dando la possibilità di verificare i risultati ed operare un’approfondita attività di correlazione del modello di calcolo per i consumi. Il beneficio ottenuto in termini di autonomia è stato decisamente significativo con riferimento sia ai cicli di omologazione europei, che a quelli statunitensi. Sono state inoltre analizzate le ripercussioni dal punto di vista delle prestazioni ed anche in questo caso i numerosi dati rilevati hanno permesso di migliorare il livello di correlazione del modello di simulazione per le prestazioni. La vettura con la nuova rapportatura proposta è stata poi confrontata con un prototipo di Maserati Quattroporte avente cambio automatico e convertitore di coppia. Questa ulteriore attività ha permesso di valutare il differente comportamento tra le due soluzioni, sia in termini di consumo istantaneo, che di consumo complessivo rilevato durante le principali missioni su banco a rulli previste dalle normative. L’ultima sezione del lavoro è stata dedicata alla valutazione dell’efficienza energetica del sistema vettura, intesa come resistenza all’avanzamento incontrata durante il moto ad una determinata velocità. Sono state indagate sperimentalmente le curve di “coast down” della Quattroporte e di alcune concorrenti e sono stati proposti degli interventi volti alla riduzione del coefficiente di penetrazione aerodinamica, pur con il vincolo di non alterare lo stile vettura.
Resumo:
Nella prima parte di questa tesi di dottorato sono presentate le attività svolte, di carattere numerico, ai fini della modellizzazione di macchine volumetriche ad ingranaggi esterni. In particolare viene dapprima presentato un modello a parametri concentrati utilizzato per l’analisi dei fenomeni che coinvolgono l’area di ingranamento della macchina; un codice di calcolo associato al modello è stato sviluppato ed utilizzato per la determinazione dell’influenza delle condizioni di funzionamento e delle caratteristiche geometriche della macchina sulle sovra-pressioni e sull’eventuale instaurarsi della cavitazione nei volumi tra i denti che si trovano nell’area di ingranamento. In seguito vengono presentati i risultati ottenuti dall’analisi del bilanciamento assiale di diverse unità commerciali, evidenziando l’influenza delle caratteristiche geometriche delle fiancate di bilanciamento; a questo proposito, viene presentato anche un semplice modello a parametri concentrati per valutare il rendimento volumetrico della macchina ad ingranaggi esterni, con l’intenzione di usare tale parametro quale indice qualitativo della bontà del bilanciamento assiale. Infine, viene presentato un modello completo della macchina ad ingranaggi esterni, realizzato in un software commerciale a parametri concentrati, che permette di analizzare nel dettaglio il funzionamento della macchina e di studiare anche l’interazione della stessa con il circuito idraulico in cui è inserita. Nella seconda parte della tesi si presentano le attività legate alla messa in funzione di due banchi prova idraulici per la caratterizzazione sperimentale di macchine volumetriche e componenti di regolazione, con particolare attenzione dedicata alla messa a punto del sistema di acquisizione e gestione dei dati sperimentali; si presentano infine i risultati di alcune prove eseguite su componenti di regolazione e macchine volumetriche.
Resumo:
L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.
Resumo:
L'Appenino Emiliano è tra le zone più franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosità associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettività, è il tema del presente lavoro. La suscettività è volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore varietà, e cerca di capire quale sia il contributo che questa componente può dare all'analisi di suscettività in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettività alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, è assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non è adatto alle caratteristiche dell'area in studio e ben calibrato.
Resumo:
Oggetto di studio del dottorato sono stati i suoli forestali in ambiente litoraneo della Regione Emilia-Romagna. In particolare sono state considerate quattro zone di studio in Provincia di Ravenna: Pineta di San Vitale, aree boscate di Bellocchio, Pineta di Classe e Pineta di Pinarella di Cervia. Lo studio in una prima fase si è articolato nella definizione dello stato del sistema suolo, mediante la caratterizzazione pedologica delle zone di studio. A tale scopo è stata messa a punto un’adeguata metodologia d’indagine costituita da un’indagine ambientale e successivamente da un’indagine pedologica. L’indagine ambientale, mediante fotointerpretazione ed elaborazione di livelli informativi in ambito GIS, ha permesso di individuare ambiti pedogenetici omogenei. L’indagine pedologica in campo ha messo in luce l’elevata variabilità spaziale di alcuni fattori della pedogenesi, in particolar modo l’andamento microtopografico tipico dei sistemi dunali costieri e la profondità della falda freatica del piano campagna. Complessivamente sono stati aperti descritti e campionati 40 profili pedologici. Sugli orizzonti diagnostici di questi sono state eseguite le seguenti analisi: tessitura, pH, calcare totale, carbonio organico, azoto kjeldahl, conduttività elettrica (CE), capacità di scambio cationico (CSC) e calcare attivo. I suoli presentano, ad eccezione della tessitura (generalmente grossolana), un’elevata variabilità delle proprietà chimico fisiche in funzione della morfologia, della profondità e della vicinanza della falda freatica. Sono state riscontrate diverse correlazioni, tra le più significative quelle tra carbonio organico e calcare totale (coeff. di correlazione R = -0.805 per Pineta di Classe) e tra calcare totale e pH (R = 0.736), dalle quali si è compreso in che misura l’effetto della decarbonatazione agisce nei diversi ambiti pedogenetici e tra suoli con diversa età di formazione. Il calcare totale varia da 0 a oltre 400 g.kg-1 e aumenta dalla superficie in profondità, dall’entroterra verso la costa e da nord verso sud. Il carbonio organico, estremamente variabile (0.1 - 107 g.kg-1), è concentrato soprattutto nel primo orizzonte superficiale. Il rapporto C/N (>10 in superficie e molto variabile in profondità) evidenzia una efficienza di umificazione non sempre ottimale specialmente negli orizzonti prossimi alla falda freatica. I tipi di suoli presenti, classificati secondo la Soil Taxonomy, sono risultati essere Mollic/Sodic/Typic Psammaquents nelle zone interdunali, Typic Ustipsamments sulle sommità dunali e Oxiaquic/Aquic Ustipsamments negli ambienti morfologici intermedi. Come sintesi della caratterizzazione pedologica sono state prodotte due carte dei suoli, rispettivamente per Pineta di San Vitale (scala 1:20000) e per le aree boscate di Bellocchio (scala 1:10000), rappresentanti la distribuzione dei pedotipi osservati. In una seconda fase si è focalizzata l’attenzione sugli impatti che le principali pressioni naturali ed antropiche, possono esercitare sul suolo, condizionandone la qualità in virtù delle esigenze del soprasuolo forestale. Si è scelta la zona sud di Pineta San Vitale come area campione per monitorarne mensilmente, su quattro siti rappresentativi, le principali caratteristiche chimico-fisiche dei suoli e delle acque di falda, onde evidenziare possibili correlazioni. Le principali determinazioni svolte sia nel suolo in pasta satura che nelle acque di falda hanno riguardato CE, Ca2+, Mg2+, K+, Na+, Cl-, SO4 2-, HCO3 - e SAR (Sodium Adsorption Ratio). Per ogni sito indagato sono emersi andamenti diversi dei vari parametri lungo i profili, correlabili in diversa misura tra di loro. Si sono osservati forti trend di aumento di CE e degli ioni solubili verso gli orizzonti profondi in profili con acqua di falda più salina (19 – 28 dS.m-1) e profonda (1 – 1.6 m dalla superficie), mentre molto significativi sono apparsi gli accumuli di sali in superficie nei mesi estivi (CE in pasta satura da 17.6 a 28.2 dS.m-1) nei profili con falda a meno di 50 cm dalla superficie. Si è messo successivamente in relazione la CE nel suolo con diversi parametri ambientali più facilmente monitorabili quali profondità e CE di falda, temperatura e precipitazioni, onde trovarne una relazione statistica. Dai dati di tre dei quattro siti monitorati è stato possibile definire tali relazioni con equazioni di regressione lineare a più variabili. Si è cercato poi di estendere l’estrapolabilità della CE del suolo per tutte le altre casistiche possibili di Pineta San Vitale mediante la formulazione di un modello empirico. I dati relativi alla CE nel suolo sia reali che estrapolati dal modello, sono stati messi in relazione con le esigenze di alcune specie forestali presenti nelle zone di studio e con diverso grado di tolleranza alla salinità ed al livello di umidità nel suolo. Da tali confronti è emerso che per alcune specie moderatamente tolleranti la salinità (Pinus pinea, Pinus pinaster e Juniperus communis) le condizioni critiche allo sviluppo e alla sopravvivenza sono da ricondursi, per la maggior parte dei casi, alla falda non abbastanza profonda e non tanto alla salinità che essa trasmette sull’intero profilo del suolo. Per altre specie quali Quercus robur, Populus alba, Fraxinus oxycarpa e Ulmus minor moderatamente sensibili alla salinità, ma abituate a vivere in suoli più umidi, la salinità di una falda troppo prossima alla superficie può ripercuotersi su tutto il profilo e generare condizioni critiche di sviluppo. Nei suoli di Pineta San Vitale sono stati inoltre studiati gli aspetti relativi all’inquinamento da accumulo di alcuni microtossici nei suoli quali Ag, Cd, Ni e Pb. In alcuni punti di rilievo sono stati osservati moderati fattori di arricchimento superficiale per Pb e Cd riconducibili all’attività antropica, mentre le aliquote biodisponibili risultano maggiori in superficie, ma all’interno dei valori medi dei suoli italiani. Lo studio svolto ha permesso di meglio conoscere gli impatti sul suolo, causati dalle principali pressioni esistenti, in un contesto dinamico. In particolare, si è constatato come i suoli delle zone studiate abbiano un effetto tampone piuttosto ridotto sulla mitigazione degli effetti indotti dalle pressioni esterne prese in esame (salinizzazione, sodicizzazione e innalzamento della falda freatica). Questo è dovuto principalmente alla ridotta presenza di scambiatori sulla matrice solida atti a mantenere un equilibrio dinamico con le frazioni solubili. Infine le variabili ambientali considerate sono state inserite in un modello concettuale DPSIR (Driving forces, Pressures, States, Impacts, Responces) dove sono stati prospettati, in via qualitativa, alcuni scenari in funzione di possibili risposte gestionali verosimilmente attuabili, al fine di modificare le pressioni che insistono sul sistema suolo-vegetazione delle pinete ravennati.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
Il presente contributo prende le mosse dalla consapevolezza che i modelli lineari tradizionali sulle carriere (Super, 1980) hanno lasciato il passo a concettualizzazioni più complesse e non lineari (Cohen, Duberley & Mallon, 2004; Pryor & Bright, 2007; Richardson, 2002), argomento tra l’altro approfondito operando una disanima delle principali transizioni di carriera e dei fenomeni psicosociali ad esse correlate (Schlossberg, Waters & Goodman, 1995). Vengono affrontati temi attuali quali quelli della Globalizzazione riflessiva (Beck, 1999), della complessità e delle Flessibilità (Sennett, 1998) e se ne mette in luce le interrelazioni con il fenomeno delle carriere, ed in particolare delle dinamiche che ne hanno modificato progressivamente e radicalmente la natura nel corso degli ultimi trent’anni (Hall, 1976, 1996). È stato approfondito il tema dei nuovi percorsi di carriera, con particolare attenzione ai costrutti teorici della Protean Career (Carriera Versatile) e della Boundaryless Career (Carriera senza confini). Sono stati condotti due studi, mediante il metodo dell’inchiesta, proponendo dei questionari autosomministrabili a due gruppi di lavoratori dipendenti. La selezione degli strumenti da inserire nel protocollo, e quindi delle ipotesi da verificare è stata operata in funzione delle caratteristiche intrinseche dei due gruppi coinvolti, cercando comunque di valorizzare sempre il ruolo dei nuovi orientamenti di carriera all’interno del disegno di ricerca. Lo studio 1 è stato condotto su un gruppo di 540 lavoratori dipendenti provenienti da Sardegna e Sicilia. Facendo riferimento agli studi tradizionali sull’insicurezza lavorativa (Sverke & Hellgren, 2002), si è cercato di valutare l’eventuale effetto moderante dei nuovi orientamenti di carriera (Briscoe, Hall & Frautschy De Muth, 2006) circa gli effetti dell’insicurezza su benessere psicofisico (Goldberg, 1972) e coinvolgimento lavorativo (Schaufeli, Bakker & Salanova, 2006; Scaufeli, Salanova, Gonzalez-Romá & Bakker, 2002). I risultati hanno mostrato alcuni effetti parziali, ma d’altro canto è emerso che i medesimi orientamenti di carriera risultano significativamente e direttamente associati a variabili quali l’Autoefficacia, la Proattività, il benessere e il Coinvolgimento. Lo studio 2, riguardante un gruppo di 79 neolaureati di Palermo e provincia al primo inserimento lavorativo, è stato condotto nell’arco di 8 mesi con tre rilevazioni dati. In questo caso si è cercato di evidenziare eventuali effetti causali longitudinali degli orientamenti di carriera sulle variabili dipendenti già incluse nello studio 2. Le ipotesi espresse hanno trovato soltanto parziale conferma nei risultati.